From 60457adc22d37a1a1069ee527f2f664ae4cb9b9d Mon Sep 17 00:00:00 2001 From: DannyCooler <164017819+DannyCooler@users.noreply.github.com> Date: Thu, 28 Mar 2024 13:29:55 +0200 Subject: [PATCH] Newest changes (#1) MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit * Explorer API video https://youtu.be/3VryynorQeo (#7838) * Add HUB-SDK Docs reference section (#7781) Signed-off-by: Glenn Jocher Co-authored-by: UltralyticsAssistant Co-authored-by: Ayush Chaurasia * Link checks SSL insecure robustness (#7853) * Add new @Retry() decorator (#7854) Signed-off-by: Glenn Jocher * Add TensorRT Docs Integrations Page (#7855) * Cleanup Docs languages (#7865) Signed-off-by: Glenn Jocher * Add millimeters in `solutions/distance_caculation.py` + `object-cropping.md` visuals (#7860) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * `ultralytics 8.1.7` `USER_CONFIG_DIR` Explorer ops (#7861) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Ultralytics Actions with OpenAI GPT-4 PR Summary (#7867) Co-authored-by: Glenn Jocher * Bump slackapi/slack-github-action from 1.24.0 to 1.25.0 in /.github/workflows (#7871) Signed-off-by: dependabot[bot] Co-authored-by: dependabot[bot] <49699333+dependabot[bot]@users.noreply.github.com> * Add visuals in `guides/distance-calculation.md` (#7876) Co-authored-by: Glenn Jocher * TensorRT FP16 export with `dynamic=True` (#7870) * Add https://youtu.be/3VryynorQeo to README and fix `converter.py` Docs (#7883) Co-authored-by: Glenn Jocher Co-authored-by: UltralyticsAssistant * `ultralytics 8.1.8` new `model.save('filename.pt')` method (#7886) Signed-off-by: Glenn Jocher * Compress explorer image in `dataset/index.md` + description added for new `segmentation` datasets (#7901) * Fix OpenVINO links (#7930) * Add `integrations/gradio` Docs page (#7935) Signed-off-by: Glenn Jocher Co-authored-by: WangQvQ <1579093407@qq.com> Co-authored-by: Martin Pl Co-authored-by: Mactarvish * Add https://youtu.be/96NkhsV-W1U to docs and `heatmaps` fix (#7944) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Segment TensorRT `batch=3` fix (#7952) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * `ultralytics 8.1.9` replace `.size(0)` with `.shape[0]` (#7957) Signed-off-by: Glenn Jocher * Add YouTube iframe `loading="lazy"` (#8001) Signed-off-by: Glenn Jocher * Mkdocs updates (#8008) Signed-off-by: Glenn Jocher * Tracker: clean up GMC (#8003) * Bump nick-invision/retry from 2 to 3 in /.github/workflows (#8023) Signed-off-by: dependabot[bot] Co-authored-by: dependabot[bot] <49699333+dependabot[bot]@users.noreply.github.com> * Bump codecov/codecov-action from 3 to 4 in /.github/workflows (#8022) Signed-off-by: dependabot[bot] Co-authored-by: dependabot[bot] <49699333+dependabot[bot]@users.noreply.github.com> * Fix TFLite INT8 for OBB (#7989) Co-authored-by: UltralyticsAssistant Co-authored-by: Laughing <61612323+Laughing-q@users.noreply.github.com> Co-authored-by: Glenn Jocher * Add CoreML Docs Integrations Page (#8063) * Add Roboflow 100 Dataset Docs Page (#8065) Co-authored-by: Glenn Jocher * `ultralytics 8.1.10` MLFlow, OBB, TFLite and INT8 fixes (#8016) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Add https://youtu.be/R42s2zFtNIY to `hub/datasets.md` and CoreML image fix (#8085) Co-authored-by: Glenn Jocher * Update Roboflow segmentation Docs pages (#8094) * FROM pytorch/pytorch:2.2.0-cuda12.1-cudnn8-runtime (#8104) Signed-off-by: Glenn Jocher * `ultralytics 8.1.11` expand OpenVINO INT8 ops for improved mAP (#7516) Co-authored-by: AdamP <7806910+adamp87@users.noreply.github.com> Co-authored-by: UltralyticsAssistant * Add https://youtu.be/q7LwPoM7tSQ to `guides/yolo-performance-metrics.md` (#8114) Co-authored-by: Glenn Jocher * Compress docs images (#8124) Co-authored-by: UltralyticsAssistant * Updated SQL Query Plot Code (#8120) Co-authored-by: Ayush Chaurasia Co-authored-by: Glenn Jocher * Elaborate Train and Predict mode docs arguments (#8137) Signed-off-by: Skillnoob <78843978+Skillnoob@users.noreply.github.com> Signed-off-by: Glenn Jocher Co-authored-by: Skillnoob <78843978+Skillnoob@users.noreply.github.com> Co-authored-by: Burhan <62214284+Burhan-Q@users.noreply.github.com> * Move Google Drive to slow tests (#8163) * Improve Coral Edge TPU guide (#8160) Signed-off-by: Skillnoob <78843978+Skillnoob@users.noreply.github.com> Co-authored-by: Glenn Jocher * Try Apple M1 runners for Tests and Benchmarks CI (#8162) * Retry once for Docker CI failures (#8164) * `ultralytics 8.1.12` new `Results.show()` and `Results.save()` (#8166) Signed-off-by: Glenn Jocher Co-authored-by: UltralyticsAssistant * Fix solution functions description + `integrations/openvino.md` cover image update (#8170) Co-authored-by: UltralyticsAssistant * Pin `duckdb<=0.9.2` to avoid 0.10.0 errors (#8181) Co-authored-by: Glenn Jocher * New HUB Cloud Training docs page (#8174) Co-authored-by: Glenn Jocher * `ultralytics 8.1.13` fix `yolo train time=` bug (#8179) Signed-off-by: Glenn Jocher * Docs updates and improvements (#8183) Signed-off-by: Glenn Jocher Co-authored-by: Priytosh Tripathi * Fix xyxyxyxyn calculation in obb result (#8188) * `ultralytics 8.1.14` new YOLOv8-World models (#8054) Signed-off-by: Glenn Jocher Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Fix PIL `show()` and `save()` (#8202) Signed-off-by: Glenn Jocher * Remove OpenVINO INT8 RTDETRDecoder ops (#8219) * Fix xyxyxyxyn calculation, swap axis (#8249) * Improve Docs Modes tables (#8266) Signed-off-by: Glenn Jocher * `ultralytics 8.1.15` add Python 3.12 compatibility (#8210) Signed-off-by: Glenn Jocher Co-authored-by: Johnny Co-authored-by: UltralyticsAssistant * Expand `Model` method type hinting (#8279) Signed-off-by: Glenn Jocher * `ultralytics 8.1.16` OBB ConfusionMatrix support (#8299) Signed-off-by: Glenn Jocher Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Move Explorer tests to scheduled CI (#8305) Signed-off-by: Glenn Jocher * Remove JAX constraints in Exporter (#8309) * `Model` typehints Docker fix (#8306) Signed-off-by: Glenn Jocher * Fix an issue with flatbuffer version for Raspberry Pi (#8311) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Update Dockerfile for Raspberry Pi Support (#8123) Co-authored-by: Glenn Jocher Co-authored-by: UltralyticsAssistant * Avoid creating `-hub` dir without processing images (#8334) * Added check of parameter type before setting `required_grad=True` for frozen layers (#8318) Co-authored-by: Glenn Jocher * Add `estimate_speed(region_color)` parameter (#8285) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Add simple-utilities.md Docs page (#8269) Co-authored-by: Glenn Jocher * Update `mkdocs-ultralytics-plugin>=0.0.44` (#8347) Signed-off-by: Glenn Jocher * `ultralytics 8.1.17` fix `ClassificationDataset` caching (#8358) Signed-off-by: Glenn Jocher * Add missing single-line docstrings (#8362) Signed-off-by: Glenn Jocher Co-authored-by: Johannes Kaisinger * `ultralytics 8.1.18` add cmake for building onnxsim on aarch64 (#8395) Co-authored-by: Glenn Jocher Co-authored-by: UltralyticsAssistant * Allow Annotator PIL.Image inputs (#8397) * Add Non-Maximum Suppression (NMS) `inplace` flag (#8368) * Compare `plt.get_backend()` in lowercase (#8409) Co-authored-by: Glenn Jocher * Improve Docs arguments tables (#8415) Co-authored-by: Glenn Jocher * Add plot_images `conf_thresh` parameter (#8446) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Add YOLOv9 Docs page (#8478) Signed-off-by: Glenn Jocher Co-authored-by: UltralyticsAssistant * Rename `model_id` to `model.id` (#8447) Co-authored-by: Glenn Jocher * `ultralytics 8.1.19` PNNX `aarch64` linux fix (#8480) Co-authored-by: Burhan <62214284+Burhan-Q@users.noreply.github.com> Co-authored-by: Kayzwer <68285002+Kayzwer@users.noreply.github.com> * Add TorchScript Docs Integrations Page (#8501) Co-authored-by: UltralyticsAssistant * Do RTDETR file suffix check using pathlib instead of string manipulations (#8525) Co-authored-by: Glenn Jocher * Auto-format by https://ultralytics.com/actions * Add TFLite Docs Integrations Page (#8522) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Fix undefined ‘im_array’ bug in predict.md (#8565) Signed-off-by: Glenn Jocher Co-authored-by: fang_chenfang <1217690899@qq.com> * Add https://youtu.be/ie3vLUDNYZo and other YT videos in Docs (#8551) Co-authored-by: Glenn Jocher * Hold failed upload metrics and upload with next upload metrics (#8513) Co-authored-by: hassaanfarooq01 Co-authored-by: Glenn Jocher * `ultralytics 8.1.20` add YOLOv8x-World support (#8539) Co-authored-by: Glenn Jocher * Fix device counting method to account for double-digit device IDs (#8502) Co-authored-by: Glenn Jocher * Remove unused variables (#8511) Co-authored-by: Glenn Jocher * Add NCNN Docs Integrations Page (#8562) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Optimize function calls to method calls (#8507) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Replacing Images for torchscript.md (#8596) Co-authored-by: Glenn Jocher * Fix cmake requirements for ARM64 (#8589) Co-authored-by: Glenn Jocher * Add https://youtu.be/rCggzXRRSRo to Speed Estimation Docs (#8577) Co-authored-by: Glenn Jocher * Add KaTeX support + updates to YOLOv9 model page (#8531) Co-authored-by: Glenn Jocher * Replace `onnx2tf` usage from CLI to Python (#8429) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Update IoU capitalization (#8604) Signed-off-by: Glenn Jocher Co-authored-by: Dean Mark <2552482+deanmark@users.noreply.github.com> * Update TFLite Docs images (#8605) Signed-off-by: Glenn Jocher * Add `distance calculation` feature in `vision-eye` (#8616) Signed-off-by: Glenn Jocher Co-authored-by: Muhammad Rizwan Munawar Co-authored-by: UltralyticsAssistant * `ultralytics 8.1.21` Add YOLOv8-World-v2 models (#8580) Signed-off-by: Glenn Jocher Co-authored-by: Glenn Jocher Co-authored-by: UltralyticsAssistant * `ultralytics 8.1.22` HUB model `pathlib` fix (#8621) Signed-off-by: Glenn Jocher * `ultralytics 8.1.23` add YOLOv9-C and E models (#8571) Signed-off-by: Glenn Jocher Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Add settings `runs_dir` == `datasets_dir` warning (#8653) Signed-off-by: Glenn Jocher * Add Ultralytics HUB Cloud Training banner to Docs (#8656) Co-authored-by: Glenn Jocher * Update CITATION.cff with cffinit corrections (#8658) * Update Colab notebook for YOLOv8.1 (#8660) * `ultralytics 8.1.24` new OpenVINO 2023.3 export updates (#8417) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * OBB: Fix when training on zip data (#8680) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Object Counter improvements (#8648) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Clarify triton server boolean value (#8532) Co-authored-by: Glenn Jocher * Add `model.eval()` in TensorBoad graph visualization to avoid BN stats changes (#8629) Co-authored-by: Glenn Jocher * Add domain checks to CI docs page (#8714) * `ultralytics 8.1.25` OpenVINO `LATENCY` and `THROUGHPUT` modes (#8058) Signed-off-by: Glenn Jocher Co-authored-by: UltralyticsAssistant Co-authored-by: Adrian Boguszewski * Add https://youtu.be/OpWpBI35A5Y to inference-api Docs (#8717) * OpenVino 2024.0.0 (#8726) Co-authored-by: Glenn Jocher * Fix tfjs exports for ARM64 Dockerfile (#8766) Co-authored-by: Glenn Jocher * Modify tuner best.pt logic to train first (#8792) * Update CI.md with CI links (#8786) * Add https://youtu.be/ZzUSXQkLbNw to Integration Docs (#8793) Co-authored-by: Glenn Jocher * `ultralytics 8.1.25` fix `**kwargs: (dict)` warnings (#8815) Signed-off-by: Glenn Jocher * Add docs guide terminal images (#8819) Co-authored-by: Glenn Jocher * `RTDETRDetectionModel` TorchScript, ONNX Predict and Val support (#8818) Signed-off-by: Glenn Jocher * New `MLFLOW_KEEP_RUN_ACTIVE` flag for enhanced MLflow run management (#8808) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * `ultralytics 8.1.26` `LoadImagesAndVideos` batched inference (#8817) Signed-off-by: Glenn Jocher * Update `fraction` arg to employ a random selection (#8234) Co-authored-by: Glenn Jocher * Batch inference fixes (#8854) * Integrate OpenVINO `CUMULATIVE_THROUGHPUT` mode batched inference (#8834) Signed-off-by: Glenn Jocher * Add PaddlePaddle Docs Integrations Page (#8858) Co-authored-by: Glenn Jocher * `ultralytics 8.1.27` batched tracking fixes (#8842) Signed-off-by: Glenn Jocher Co-authored-by: Glenn Jocher * Faster batch `same_shapes` (#8851) * More robust PNNX downloads (#8866) * Fix `test_mlflow_keep_run_active()` (#8868) * Add polygon regions drawing support in `object-counting.md` and minor docs update (#8885) * Add TFLite Edge TPU Docs Integrations Page (#8900) Co-authored-by: Glenn Jocher * Update Docs README (#8919) * Fix `names` bug when exporting YOLOv8-World to ONNX (#8941) Co-authored-by: Glenn Jocher * New test for labels and crops (#8861) Co-authored-by: Glenn Jocher * Optimize TFJS export on ARM64 (#8946) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Auto-format by https://ultralytics.com/actions * `ultralytics 8.1.28` avoid * ops on bool Tensors for RT-DETR OpenVINO export (#8937) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Add https://youtu.be/YDXKa1EljmU and https://youtu.be/5BO0Il_YYAg to Docs (#8958) * `ultralytics 8.1.29` improved disk space checking on correct path (#8977) Signed-off-by: Glenn Jocher Co-authored-by: Kayzwer <68285002+Kayzwer@users.noreply.github.com> * Add OpenVINO Latency vs Throughput modes Docs page (#9001) Signed-off-by: Glenn Jocher * Add `brain-tumor` dataset docs page (#9041) Co-authored-by: Glenn Jocher * Fix Neural Magic links (#9144) * Updating a typo on paddlepaddle.md (#9108) Co-authored-by: Glenn Jocher * `ultralytics 8.1.30` add advanced HUB train arguments (#9110) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * fix yolo classify model loading error (#9196) * Add TF GraphDef Docs Integrations Page (#9203) Co-authored-by: Glenn Jocher * `ultralytics 8.1.31` NCNN and CLIP updates (#9235) Signed-off-by: Glenn Jocher * Fix TypeError in check_cfg() (#9245) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * Add https://youtu.be/aeAX6vWpfR0 to docs & `african-wildlife` dataset docs page (#9102) Co-authored-by: Glenn Jocher * Add TF SavedModel Docs Integrations Page (#9162) Co-authored-by: Glenn Jocher * Limit `ray<2.9.3` due to bug in `ray==2.10.0` (#9254) Signed-off-by: Glenn Jocher * `ultralytics 8.1.32` fix CLIP backwards compatibility (#9253) Signed-off-by: Glenn Jocher * Conda cv2 ImportError libEGL.so.1 fix (#9255) * Fix `IS_PYTHON_3_12` bug (#9258) Co-authored-by: UltralyticsAssistant * Reverse IoU threshold for NMS docs descriptions (#9151) Co-authored-by: Glenn Jocher * Add `bgr` hyperparameter (#9139) Co-authored-by: Glenn Jocher * Update pyproject.toml `[tool.pytest.ini_options]` (#9259) Signed-off-by: Glenn Jocher * Fix OpenVINO missing batch-size bug (#9264) * `ultralytics 8.1.33` fix HUB model checks (#9153) Signed-off-by: Glenn Jocher Co-authored-by: Laughing <61612323+Laughing-q@users.noreply.github.com> Co-authored-by: Glenn Jocher * Update Discord and Contributing Guide URLs (#9270) Signed-off-by: Glenn Jocher * Add https://youtu.be/uDrn9QZJ2lk and `object_counting.py`, `ai_gym.py` updates (#9265) * `ultralytics 8.1.34` Inference API robust imgsz checks (#9274) Signed-off-by: Glenn Jocher * Bump contributor-assistant/github-action from 2.3.1 to 2.3.2 in /.github/workflows (#9279) Signed-off-by: dependabot[bot] Co-authored-by: dependabot[bot] <49699333+dependabot[bot]@users.noreply.github.com> * Add https://youtu.be/u3pLlgzUeV8 to docs (#9367) * Fix typo in YOLOv8-Libtorch-CPP-Inference (#9330) Co-authored-by: Glenn Jocher * Simplify metrics calculation (#9338) Co-authored-by: Glenn Jocher * Fix typo in example readme (#9306) Co-authored-by: Glenn Jocher * Specify YOLODataset task arg during INT8 calibration (#9309) Co-authored-by: UltralyticsAssistant Co-authored-by: Glenn Jocher * `ultralytics 8.1.35` simplify network modules (#9321) Co-authored-by: Glenn Jocher --------- Signed-off-by: Glenn Jocher Signed-off-by: dependabot[bot] Signed-off-by: Skillnoob <78843978+Skillnoob@users.noreply.github.com> Co-authored-by: Muhammad Rizwan Munawar Co-authored-by: Glenn Jocher Co-authored-by: UltralyticsAssistant Co-authored-by: Ayush Chaurasia Co-authored-by: Abirami Vina Co-authored-by: Paula Derrenger <107626595+pderrenger@users.noreply.github.com> Co-authored-by: dependabot[bot] <49699333+dependabot[bot]@users.noreply.github.com> Co-authored-by: Yonghye Kwon Co-authored-by: Muhammad Rizwan Munawar Co-authored-by: WangQvQ <1579093407@qq.com> Co-authored-by: Martin Pl Co-authored-by: Mactarvish Co-authored-by: DieterTimmers <46112022+DieterTimmers@users.noreply.github.com> Co-authored-by: Laughing <61612323+Laughing-q@users.noreply.github.com> Co-authored-by: AdamP <7806910+adamp87@users.noreply.github.com> Co-authored-by: Youho99 <44434482+Youho99@users.noreply.github.com> Co-authored-by: Ankan Ghosh <79740115+0xSynapse@users.noreply.github.com> Co-authored-by: Skillnoob <78843978+Skillnoob@users.noreply.github.com> Co-authored-by: Burhan <62214284+Burhan-Q@users.noreply.github.com> Co-authored-by: Priytosh Tripathi Co-authored-by: Johannes Kaisinger Co-authored-by: Johnny Co-authored-by: Lakshantha Dissanayake Co-authored-by: Alexander Suslov Co-authored-by: Chi Co-authored-by: AlainSchoebi <44315825+AlainSchoebi@users.noreply.github.com> Co-authored-by: Dean Mark <2552482+deanmark@users.noreply.github.com> Co-authored-by: Yifei Liu <71677542+kaikai23@users.noreply.github.com> Co-authored-by: Kayzwer <68285002+Kayzwer@users.noreply.github.com> Co-authored-by: Robin Brown Co-authored-by: fang_chenfang <1217690899@qq.com> Co-authored-by: Hassaan Farooq <103611273+hassaanfarooq01@users.noreply.github.com> Co-authored-by: hassaanfarooq01 Co-authored-by: Omar Duhaiby <3omarz@gmail.com> Co-authored-by: Andrew Co-authored-by: Sergiu Waxmann <47978446+sergiuwaxmann@users.noreply.github.com> Co-authored-by: Adrian Boguszewski Co-authored-by: Henry Co-authored-by: bobyard-com <154289614+bobyard-com@users.noreply.github.com> Co-authored-by: Mohammed Yasin <32206511+Y-T-G@users.noreply.github.com> Co-authored-by: Finlay Morrison <57669260+finlaymorrison@users.noreply.github.com> Co-authored-by: Massimiliano Riva <48362794+massimiliano96@users.noreply.github.com> Co-authored-by: Jamjamjon <51357717+jamjamjon@users.noreply.github.com> Co-authored-by: Kalen Michael Co-authored-by: Mo Li <82895469+DseidLi@users.noreply.github.com> Co-authored-by: zhaoruibing Co-authored-by: Dzmitry Plashchynski Co-authored-by: higor-melo <115033428+higor-melo@users.noreply.github.com> Co-authored-by: Eric Hanson <5846501+ericphanson@users.noreply.github.com> Co-authored-by: sifan-intel <109498696+sifan-intel@users.noreply.github.com> --- .github/workflows/ci.yaml | 48 +- .github/workflows/cla.yml | 2 +- .github/workflows/docker.yaml | 21 +- .github/workflows/format.yml | 1 - .github/workflows/links.yml | 12 +- .github/workflows/publish.yml | 5 +- .gitignore | 3 +- CITATION.cff | 40 +- README.md | 4 +- README.zh-CN.md | 16 +- docker/Dockerfile | 11 +- docker/Dockerfile-arm64 | 19 +- docker/Dockerfile-conda | 4 +- docker/Dockerfile-cpu | 10 +- docker/Dockerfile-jetson | 4 +- docker/Dockerfile-python | 6 +- docs/README.md | 158 ++-- docs/ar/datasets/index.md | 127 ---- docs/ar/index.md | 83 -- docs/ar/models/fast-sam.md | 191 ----- docs/ar/models/index.md | 98 --- docs/ar/models/mobile-sam.md | 116 --- docs/ar/models/rtdetr.md | 93 --- docs/ar/models/sam.md | 225 ------ docs/ar/models/yolo-nas.md | 121 --- docs/ar/models/yolov3.md | 98 --- docs/ar/models/yolov4.md | 72 -- docs/ar/models/yolov5.md | 107 --- docs/ar/models/yolov6.md | 107 --- docs/ar/models/yolov7.md | 66 -- docs/ar/models/yolov8.md | 166 ---- docs/ar/modes/benchmark.md | 94 --- docs/ar/modes/export.md | 108 --- docs/ar/modes/index.md | 77 -- docs/ar/modes/predict.md | 217 ------ docs/ar/modes/track.md | 360 --------- docs/ar/modes/train.md | 286 ------- docs/ar/modes/val.md | 86 --- docs/ar/quickstart.md | 326 -------- docs/ar/tasks/classify.md | 172 ----- docs/ar/tasks/detect.md | 185 ----- docs/ar/tasks/index.md | 55 -- docs/ar/tasks/pose.md | 186 ----- docs/ar/tasks/segment.md | 189 ----- docs/build_docs.py | 85 +-- docs/de/datasets/index.md | 127 ---- docs/de/index.md | 83 -- docs/de/models/fast-sam.md | 193 ----- docs/de/models/index.md | 98 --- docs/de/models/mobile-sam.md | 116 --- docs/de/models/rtdetr.md | 93 --- docs/de/models/sam.md | 226 ------ docs/de/models/yolo-nas.md | 121 --- docs/de/models/yolov3.md | 98 --- docs/de/models/yolov4.md | 71 -- docs/de/models/yolov5.md | 113 --- docs/de/models/yolov6.md | 107 --- docs/de/models/yolov7.md | 66 -- docs/de/models/yolov8.md | 162 ---- docs/de/modes/benchmark.md | 94 --- docs/de/modes/export.md | 108 --- docs/de/modes/index.md | 74 -- docs/de/modes/predict.md | 227 ------ docs/de/modes/track.md | 200 ----- docs/de/modes/train.md | 206 ----- docs/de/modes/val.md | 86 --- docs/de/quickstart.md | 198 ----- docs/de/tasks/classify.md | 172 ----- docs/de/tasks/detect.md | 184 ----- docs/de/tasks/index.md | 55 -- docs/de/tasks/pose.md | 185 ----- docs/de/tasks/segment.md | 188 ----- docs/en/datasets/detect/african-wildlife.md | 92 +++ docs/en/datasets/detect/brain-tumor.md | 91 +++ docs/en/datasets/detect/coco.md | 11 + docs/en/datasets/detect/coco8.md | 11 + docs/en/datasets/detect/index.md | 2 + docs/en/datasets/detect/open-images-v7.md | 11 + docs/en/datasets/detect/roboflow-100.md | 80 ++ docs/en/datasets/explorer/api.md | 17 +- docs/en/datasets/explorer/dashboard.md | 23 +- docs/en/datasets/explorer/index.md | 13 +- docs/en/datasets/index.md | 19 +- docs/en/datasets/obb/dota-v2.md | 8 +- docs/en/datasets/pose/tiger-pose.md | 2 +- docs/en/datasets/segment/carparts-seg.md | 4 +- docs/en/datasets/segment/crack-seg.md | 4 +- docs/en/datasets/segment/package-seg.md | 4 +- docs/en/guides/conda-quickstart.md | 2 +- .../guides/coral-edge-tpu-on-raspberry-pi.md | 140 ++++ docs/en/guides/distance-calculation.md | 17 + docs/en/guides/heatmaps.md | 2 +- docs/en/guides/hyperparameter-tuning.md | 2 +- docs/en/guides/index.md | 16 +- .../instance-segmentation-and-tracking.md | 13 +- .../guides/isolating-segmentation-objects.md | 42 +- docs/en/guides/model-deployment-options.md | 6 +- docs/en/guides/object-counting.md | 53 +- docs/en/guides/object-cropping.md | 7 + ...ng-openvino-latency-vs-throughput-modes.md | 69 ++ docs/en/guides/raspberry-pi.md | 2 +- docs/en/guides/region-counting.md | 2 +- docs/en/guides/security-alarm-system.md | 2 +- docs/en/guides/speed-estimation.md | 11 + docs/en/guides/triton-inference-server.md | 2 +- docs/en/guides/view-results-in-terminal.md | 146 ++++ docs/en/guides/vision-eye.md | 65 +- docs/en/guides/workouts-monitoring.md | 22 +- docs/en/guides/yolo-performance-metrics.md | 11 + docs/en/help/CI.md | 12 +- docs/en/help/contributing.md | 14 +- docs/en/hub/app/android.md | 11 + docs/en/hub/app/ios.md | 11 + docs/en/hub/cloud-training.md | 89 +++ docs/en/hub/datasets.md | 75 +- docs/en/hub/index.md | 2 +- docs/en/hub/inference-api.md | 13 +- docs/en/hub/integrations.md | 2 +- docs/en/hub/models.md | 199 ++--- docs/en/hub/projects.md | 4 +- docs/en/hub/quickstart.md | 52 +- docs/en/index.md | 3 +- docs/en/integrations/amazon-sagemaker.md | 14 +- docs/en/integrations/clearml.md | 2 +- docs/en/integrations/coreml.md | 126 ++++ docs/en/integrations/edge-tpu.md | 118 +++ docs/en/integrations/gradio.md | 106 +++ docs/en/integrations/index.md | 33 +- docs/en/integrations/ncnn.md | 120 +++ docs/en/integrations/neural-magic.md | 4 +- docs/en/integrations/openvino.md | 8 +- docs/en/integrations/paddlepaddle.md | 122 +++ docs/en/integrations/ray-tune.md | 2 +- docs/en/integrations/tensorboard.md | 4 +- docs/en/integrations/tensorrt.md | 128 ++++ docs/en/integrations/tf-graphdef.md | 122 +++ docs/en/integrations/tf-savedmodel.md | 121 +++ docs/en/integrations/tflite.md | 122 +++ docs/en/integrations/torchscript.md | 126 ++++ docs/en/models/index.md | 18 +- docs/en/models/rtdetr.md | 2 +- docs/en/models/yolo-world.md | 216 ++++++ docs/en/models/yolov8.md | 2 +- docs/en/models/yolov9.md | 152 ++++ docs/en/modes/benchmark.md | 22 +- docs/en/modes/export.md | 36 +- docs/en/modes/index.md | 2 +- docs/en/modes/predict.md | 179 +++-- docs/en/modes/track.md | 2 +- docs/en/modes/train.md | 139 ++-- docs/en/modes/val.md | 73 +- docs/en/quickstart.md | 2 +- docs/en/reference/cfg/__init__.md | 4 + docs/en/reference/data/loaders.md | 2 +- docs/en/reference/models/yolo/model.md | 4 + docs/en/reference/nn/modules/block.md | 52 ++ docs/en/reference/nn/modules/head.md | 4 + docs/en/reference/nn/tasks.md | 4 + docs/en/reference/utils/__init__.md | 4 + docs/en/reference/utils/files.md | 4 + docs/en/reference/utils/metrics.md | 4 +- docs/en/robots.txt | 1 + docs/en/tasks/classify.md | 6 +- docs/en/tasks/detect.md | 4 +- docs/en/tasks/index.md | 2 +- docs/en/tasks/obb.md | 6 +- docs/en/tasks/pose.md | 34 +- docs/en/tasks/segment.md | 4 +- docs/en/usage/callbacks.md | 2 +- docs/en/usage/cfg.md | 314 ++++---- docs/en/usage/cli.md | 4 +- docs/en/usage/engine.md | 2 +- docs/en/usage/python.md | 4 +- docs/en/usage/simple-utilities.md | 429 +++++++++++ docs/en/yolov5/index.md | 2 +- .../neural_magic_pruning_quantization.md | 2 +- docs/es/datasets/index.md | 127 ---- docs/es/index.md | 83 -- docs/es/models/fast-sam.md | 193 ----- docs/es/models/index.md | 98 --- docs/es/models/mobile-sam.md | 116 --- docs/es/models/rtdetr.md | 93 --- docs/es/models/sam.md | 226 ------ docs/es/models/yolo-nas.md | 121 --- docs/es/models/yolov3.md | 98 --- docs/es/models/yolov4.md | 71 -- docs/es/models/yolov5.md | 113 --- docs/es/models/yolov6.md | 107 --- docs/es/models/yolov7.md | 66 -- docs/es/models/yolov8.md | 162 ---- docs/es/modes/benchmark.md | 94 --- docs/es/modes/export.md | 108 --- docs/es/modes/index.md | 73 -- docs/es/modes/predict.md | 227 ------ docs/es/modes/track.md | 200 ----- docs/es/modes/train.md | 206 ----- docs/es/modes/val.md | 86 --- docs/es/quickstart.md | 198 ----- docs/es/tasks/classify.md | 172 ----- docs/es/tasks/detect.md | 184 ----- docs/es/tasks/index.md | 55 -- docs/es/tasks/pose.md | 185 ----- docs/es/tasks/segment.md | 188 ----- docs/fr/datasets/index.md | 127 ---- docs/fr/index.md | 83 -- docs/fr/models/fast-sam.md | 193 ----- docs/fr/models/index.md | 98 --- docs/fr/models/mobile-sam.md | 116 --- docs/fr/models/rtdetr.md | 93 --- docs/fr/models/sam.md | 226 ------ docs/fr/models/yolo-nas.md | 121 --- docs/fr/models/yolov3.md | 98 --- docs/fr/models/yolov4.md | 71 -- docs/fr/models/yolov5.md | 113 --- docs/fr/models/yolov6.md | 107 --- docs/fr/models/yolov7.md | 66 -- docs/fr/models/yolov8.md | 162 ---- docs/fr/modes/benchmark.md | 94 --- docs/fr/modes/export.md | 108 --- docs/fr/modes/index.md | 73 -- docs/fr/modes/predict.md | 227 ------ docs/fr/modes/track.md | 200 ----- docs/fr/modes/train.md | 206 ----- docs/fr/modes/val.md | 86 --- docs/fr/quickstart.md | 198 ----- docs/fr/tasks/classify.md | 172 ----- docs/fr/tasks/detect.md | 184 ----- docs/fr/tasks/index.md | 55 -- docs/fr/tasks/pose.md | 176 ----- docs/fr/tasks/segment.md | 189 ----- docs/hi/datasets/index.md | 134 ---- docs/hi/index.md | 84 --- docs/hi/models/fast-sam.md | 193 ----- docs/hi/models/index.md | 98 --- docs/hi/models/mobile-sam.md | 115 --- docs/hi/models/rtdetr.md | 93 --- docs/hi/models/sam.md | 226 ------ docs/hi/models/yolo-nas.md | 119 --- docs/hi/models/yolov3.md | 98 --- docs/hi/models/yolov4.md | 69 -- docs/hi/models/yolov5.md | 113 --- docs/hi/models/yolov6.md | 90 --- docs/hi/models/yolov7.md | 65 -- docs/hi/models/yolov8.md | 162 ---- docs/hi/modes/benchmark.md | 94 --- docs/hi/modes/export.md | 108 --- docs/hi/modes/index.md | 78 -- docs/hi/modes/predict.md | 226 ------ docs/hi/modes/track.md | 358 --------- docs/hi/modes/train.md | 293 ------- docs/hi/modes/val.md | 86 --- docs/hi/quickstart.md | 327 -------- docs/hi/tasks/classify.md | 172 ----- docs/hi/tasks/detect.md | 186 ----- docs/hi/tasks/index.md | 55 -- docs/hi/tasks/pose.md | 183 ----- docs/hi/tasks/segment.md | 187 ----- docs/ja/datasets/index.md | 127 ---- docs/ja/index.md | 83 -- docs/ja/models/fast-sam.md | 193 ----- docs/ja/models/index.md | 98 --- docs/ja/models/mobile-sam.md | 116 --- docs/ja/models/rtdetr.md | 93 --- docs/ja/models/sam.md | 226 ------ docs/ja/models/yolo-nas.md | 121 --- docs/ja/models/yolov3.md | 98 --- docs/ja/models/yolov4.md | 71 -- docs/ja/models/yolov5.md | 113 --- docs/ja/models/yolov6.md | 107 --- docs/ja/models/yolov7.md | 65 -- docs/ja/models/yolov8.md | 162 ---- docs/ja/modes/benchmark.md | 94 --- docs/ja/modes/export.md | 76 -- docs/ja/modes/index.md | 53 -- docs/ja/modes/predict.md | 211 ------ docs/ja/modes/track.md | 200 ----- docs/ja/modes/train.md | 206 ----- docs/ja/modes/val.md | 86 --- docs/ja/quickstart.md | 198 ----- docs/ja/tasks/classify.md | 172 ----- docs/ja/tasks/detect.md | 184 ----- docs/ja/tasks/index.md | 55 -- docs/ja/tasks/pose.md | 185 ----- docs/ja/tasks/segment.md | 186 ----- docs/ko/datasets/index.md | 127 ---- docs/ko/index.md | 83 -- docs/ko/models/fast-sam.md | 193 ----- docs/ko/models/index.md | 98 --- docs/ko/models/mobile-sam.md | 116 --- docs/ko/models/rtdetr.md | 93 --- docs/ko/models/sam.md | 226 ------ docs/ko/models/yolo-nas.md | 119 --- docs/ko/models/yolov3.md | 98 --- docs/ko/models/yolov4.md | 71 -- docs/ko/models/yolov5.md | 113 --- docs/ko/models/yolov6.md | 107 --- docs/ko/models/yolov7.md | 65 -- docs/ko/models/yolov8.md | 162 ---- docs/ko/modes/benchmark.md | 94 --- docs/ko/modes/export.md | 108 --- docs/ko/modes/index.md | 73 -- docs/ko/modes/predict.md | 227 ------ docs/ko/modes/track.md | 256 ------- docs/ko/modes/train.md | 145 ---- docs/ko/modes/val.md | 86 --- docs/ko/quickstart.md | 207 ----- docs/ko/tasks/classify.md | 172 ----- docs/ko/tasks/detect.md | 184 ----- docs/ko/tasks/index.md | 55 -- docs/ko/tasks/pose.md | 185 ----- docs/ko/tasks/segment.md | 188 ----- docs/mkdocs_ar.yml | 212 ------ docs/mkdocs_de.yml | 212 ------ docs/mkdocs_es.yml | 212 ------ docs/mkdocs_fr.yml | 212 ------ docs/mkdocs_github_authors.yaml | 23 + docs/mkdocs_hi.yml | 212 ------ docs/mkdocs_ja.yml | 212 ------ docs/mkdocs_ko.yml | 212 ------ docs/mkdocs_pt.yml | 212 ------ docs/mkdocs_ru.yml | 212 ------ docs/mkdocs_zh.yml | 212 ------ docs/overrides/javascript/extra.js | 2 +- docs/overrides/main.html | 4 +- docs/overrides/partials/comments.html | 5 +- docs/overrides/stylesheets/style.css | 2 +- docs/pt/datasets/index.md | 127 ---- docs/pt/index.md | 83 -- docs/pt/models/fast-sam.md | 193 ----- docs/pt/models/index.md | 98 --- docs/pt/models/mobile-sam.md | 116 --- docs/pt/models/rtdetr.md | 93 --- docs/pt/models/sam.md | 226 ------ docs/pt/models/yolo-nas.md | 121 --- docs/pt/models/yolov3.md | 98 --- docs/pt/models/yolov4.md | 71 -- docs/pt/models/yolov5.md | 113 --- docs/pt/models/yolov6.md | 107 --- docs/pt/models/yolov7.md | 66 -- docs/pt/models/yolov8.md | 162 ---- docs/pt/modes/benchmark.md | 94 --- docs/pt/modes/export.md | 108 --- docs/pt/modes/index.md | 73 -- docs/pt/modes/predict.md | 227 ------ docs/pt/modes/track.md | 200 ----- docs/pt/modes/train.md | 206 ----- docs/pt/modes/val.md | 86 --- docs/pt/quickstart.md | 198 ----- docs/pt/tasks/classify.md | 172 ----- docs/pt/tasks/detect.md | 185 ----- docs/pt/tasks/index.md | 55 -- docs/pt/tasks/pose.md | 188 ----- docs/pt/tasks/segment.md | 188 ----- docs/ru/datasets/index.md | 127 ---- docs/ru/index.md | 83 -- docs/ru/models/fast-sam.md | 193 ----- docs/ru/models/index.md | 98 --- docs/ru/models/mobile-sam.md | 116 --- docs/ru/models/rtdetr.md | 93 --- docs/ru/models/sam.md | 226 ------ docs/ru/models/yolo-nas.md | 121 --- docs/ru/models/yolov3.md | 98 --- docs/ru/models/yolov4.md | 71 -- docs/ru/models/yolov5.md | 113 --- docs/ru/models/yolov6.md | 107 --- docs/ru/models/yolov7.md | 65 -- docs/ru/models/yolov8.md | 162 ---- docs/ru/modes/benchmark.md | 94 --- docs/ru/modes/export.md | 108 --- docs/ru/modes/index.md | 73 -- docs/ru/modes/predict.md | 227 ------ docs/ru/modes/track.md | 200 ----- docs/ru/modes/train.md | 206 ----- docs/ru/modes/val.md | 86 --- docs/ru/quickstart.md | 198 ----- docs/ru/tasks/classify.md | 172 ----- docs/ru/tasks/detect.md | 184 ----- docs/ru/tasks/index.md | 55 -- docs/ru/tasks/pose.md | 176 ----- docs/ru/tasks/segment.md | 189 ----- docs/update_translations.py | 345 --------- docs/zh/datasets/index.md | 127 ---- docs/zh/index.md | 85 --- docs/zh/models/fast-sam.md | 193 ----- docs/zh/models/index.md | 98 --- docs/zh/models/mobile-sam.md | 116 --- docs/zh/models/rtdetr.md | 93 --- docs/zh/models/sam.md | 226 ------ docs/zh/models/yolo-nas.md | 121 --- docs/zh/models/yolov3.md | 98 --- docs/zh/models/yolov4.md | 71 -- docs/zh/models/yolov5.md | 113 --- docs/zh/models/yolov6.md | 107 --- docs/zh/models/yolov7.md | 65 -- docs/zh/models/yolov8.md | 162 ---- docs/zh/modes/benchmark.md | 94 --- docs/zh/modes/export.md | 108 --- docs/zh/modes/index.md | 73 -- docs/zh/modes/predict.md | 714 ------------------ docs/zh/modes/track.md | 273 ------- docs/zh/modes/train.md | 294 -------- docs/zh/modes/val.md | 86 --- docs/zh/quickstart.md | 325 -------- docs/zh/tasks/classify.md | 172 ----- docs/zh/tasks/detect.md | 184 ----- docs/zh/tasks/index.md | 51 -- docs/zh/tasks/pose.md | 185 ----- docs/zh/tasks/segment.md | 188 ----- .../YOLOv8-LibTorch-CPP-Inference/main.cc | 4 +- .../README.md | 2 +- examples/heatmaps.ipynb | 2 +- examples/object_counting.ipynb | 2 +- examples/object_tracking.ipynb | 2 +- examples/tutorial.ipynb | 175 +++-- docs/mkdocs.yml => mkdocs.yml | 55 +- pyproject.toml | 28 +- tests/conftest.py | 39 +- tests/test_cli.py | 92 +-- tests/test_cuda.py | 46 +- tests/test_engine.py | 90 +-- tests/test_explorer.py | 23 +- tests/test_integrations.py | 114 ++- tests/test_python.py | 272 ++++--- ultralytics/__init__.py | 5 +- ultralytics/cfg/__init__.py | 82 +- .../cfg/datasets/african-wildlife.yaml | 24 + ultralytics/cfg/datasets/brain-tumor.yaml | 22 + ultralytics/cfg/default.yaml | 5 +- ultralytics/cfg/models/v8/yolov8-world.yaml | 48 ++ ultralytics/cfg/models/v8/yolov8-worldv2.yaml | 46 ++ ultralytics/cfg/models/v9/yolov9c.yaml | 36 + ultralytics/cfg/models/v9/yolov9e.yaml | 60 ++ ultralytics/data/augment.py | 74 +- ultralytics/data/base.py | 4 +- ultralytics/data/build.py | 15 +- ultralytics/data/converter.py | 11 +- ultralytics/data/dataset.py | 51 +- ultralytics/data/explorer/explorer.py | 10 +- ultralytics/data/explorer/gui/dash.py | 6 +- ultralytics/data/loaders.py | 128 ++-- ultralytics/data/utils.py | 10 +- ultralytics/engine/exporter.py | 164 ++-- ultralytics/engine/model.py | 574 +++++++++++--- ultralytics/engine/predictor.py | 206 +++-- ultralytics/engine/results.py | 182 +++-- ultralytics/engine/trainer.py | 32 +- ultralytics/engine/tuner.py | 4 +- ultralytics/engine/validator.py | 4 +- ultralytics/hub/__init__.py | 13 +- ultralytics/hub/auth.py | 6 +- ultralytics/hub/session.py | 47 +- ultralytics/hub/utils.py | 4 +- ultralytics/models/__init__.py | 4 +- ultralytics/models/fastsam/prompt.py | 2 +- ultralytics/models/rtdetr/model.py | 2 - ultralytics/models/rtdetr/predict.py | 5 +- ultralytics/models/rtdetr/val.py | 3 + ultralytics/models/sam/amg.py | 6 +- ultralytics/models/sam/modules/decoders.py | 2 +- .../models/sam/modules/tiny_encoder.py | 2 +- ultralytics/models/yolo/__init__.py | 4 +- ultralytics/models/yolo/classify/train.py | 2 +- ultralytics/models/yolo/detect/val.py | 8 +- ultralytics/models/yolo/model.py | 63 +- ultralytics/models/yolo/obb/train.py | 2 +- ultralytics/models/yolo/obb/val.py | 9 +- ultralytics/models/yolo/segment/predict.py | 2 +- ultralytics/models/yolo/segment/val.py | 8 +- ultralytics/nn/autobackend.py | 186 +++-- ultralytics/nn/modules/__init__.py | 23 +- ultralytics/nn/modules/block.py | 304 +++++++- ultralytics/nn/modules/head.py | 68 +- ultralytics/nn/modules/transformer.py | 2 +- ultralytics/nn/modules/utils.py | 2 +- ultralytics/nn/tasks.py | 144 +++- ultralytics/solutions/ai_gym.py | 20 +- ultralytics/solutions/distance_calculation.py | 31 +- ultralytics/solutions/heatmap.py | 3 +- ultralytics/solutions/object_counter.py | 119 +-- ultralytics/solutions/speed_estimation.py | 13 +- ultralytics/trackers/byte_tracker.py | 6 +- ultralytics/trackers/track.py | 16 +- ultralytics/trackers/utils/gmc.py | 42 +- ultralytics/utils/__init__.py | 106 ++- ultralytics/utils/benchmarks.py | 52 +- ultralytics/utils/callbacks/hub.py | 7 +- ultralytics/utils/callbacks/mlflow.py | 16 +- ultralytics/utils/callbacks/tensorboard.py | 1 + ultralytics/utils/callbacks/wb.py | 9 +- ultralytics/utils/checks.py | 23 +- ultralytics/utils/downloads.py | 17 +- ultralytics/utils/files.py | 41 + ultralytics/utils/loss.py | 20 +- ultralytics/utils/metrics.py | 108 ++- ultralytics/utils/ops.py | 28 +- ultralytics/utils/patches.py | 22 +- ultralytics/utils/plotting.py | 95 ++- ultralytics/utils/tal.py | 10 +- ultralytics/utils/torch_utils.py | 13 +- ultralytics/utils/triton.py | 2 +- ultralytics/utils/tuner.py | 10 +- 501 files changed, 7270 insertions(+), 42627 deletions(-) delete mode 100644 docs/ar/datasets/index.md delete mode 100644 docs/ar/index.md delete mode 100644 docs/ar/models/fast-sam.md delete mode 100644 docs/ar/models/index.md delete mode 100644 docs/ar/models/mobile-sam.md delete mode 100644 docs/ar/models/rtdetr.md delete mode 100644 docs/ar/models/sam.md delete mode 100644 docs/ar/models/yolo-nas.md delete mode 100644 docs/ar/models/yolov3.md delete mode 100644 docs/ar/models/yolov4.md delete mode 100644 docs/ar/models/yolov5.md delete mode 100644 docs/ar/models/yolov6.md delete mode 100644 docs/ar/models/yolov7.md delete mode 100644 docs/ar/models/yolov8.md delete mode 100644 docs/ar/modes/benchmark.md delete mode 100644 docs/ar/modes/export.md delete mode 100644 docs/ar/modes/index.md delete mode 100644 docs/ar/modes/predict.md delete mode 100644 docs/ar/modes/track.md delete mode 100644 docs/ar/modes/train.md delete mode 100644 docs/ar/modes/val.md delete mode 100644 docs/ar/quickstart.md delete mode 100644 docs/ar/tasks/classify.md delete mode 100644 docs/ar/tasks/detect.md delete mode 100644 docs/ar/tasks/index.md delete mode 100644 docs/ar/tasks/pose.md delete mode 100644 docs/ar/tasks/segment.md delete mode 100644 docs/de/datasets/index.md delete mode 100644 docs/de/index.md delete mode 100644 docs/de/models/fast-sam.md delete mode 100644 docs/de/models/index.md delete mode 100644 docs/de/models/mobile-sam.md delete mode 100644 docs/de/models/rtdetr.md delete mode 100644 docs/de/models/sam.md delete mode 100644 docs/de/models/yolo-nas.md delete mode 100644 docs/de/models/yolov3.md delete mode 100644 docs/de/models/yolov4.md delete mode 100644 docs/de/models/yolov5.md delete mode 100644 docs/de/models/yolov6.md delete mode 100644 docs/de/models/yolov7.md delete mode 100644 docs/de/models/yolov8.md delete mode 100644 docs/de/modes/benchmark.md delete mode 100644 docs/de/modes/export.md delete mode 100644 docs/de/modes/index.md delete mode 100644 docs/de/modes/predict.md delete mode 100644 docs/de/modes/track.md delete mode 100644 docs/de/modes/train.md delete mode 100644 docs/de/modes/val.md delete mode 100644 docs/de/quickstart.md delete mode 100644 docs/de/tasks/classify.md delete mode 100644 docs/de/tasks/detect.md delete mode 100644 docs/de/tasks/index.md delete mode 100644 docs/de/tasks/pose.md delete mode 100644 docs/de/tasks/segment.md create mode 100644 docs/en/datasets/detect/african-wildlife.md create mode 100644 docs/en/datasets/detect/brain-tumor.md create mode 100644 docs/en/datasets/detect/roboflow-100.md create mode 100644 docs/en/guides/coral-edge-tpu-on-raspberry-pi.md create mode 100644 docs/en/guides/optimizing-openvino-latency-vs-throughput-modes.md create mode 100644 docs/en/guides/view-results-in-terminal.md create mode 100644 docs/en/hub/cloud-training.md create mode 100644 docs/en/integrations/coreml.md create mode 100644 docs/en/integrations/edge-tpu.md create mode 100644 docs/en/integrations/gradio.md create mode 100644 docs/en/integrations/ncnn.md create mode 100644 docs/en/integrations/paddlepaddle.md create mode 100644 docs/en/integrations/tensorrt.md create mode 100644 docs/en/integrations/tf-graphdef.md create mode 100644 docs/en/integrations/tf-savedmodel.md create mode 100644 docs/en/integrations/tflite.md create mode 100644 docs/en/integrations/torchscript.md create mode 100644 docs/en/models/yolo-world.md create mode 100644 docs/en/models/yolov9.md create mode 100644 docs/en/usage/simple-utilities.md delete mode 100644 docs/es/datasets/index.md delete mode 100644 docs/es/index.md delete mode 100644 docs/es/models/fast-sam.md delete mode 100644 docs/es/models/index.md delete mode 100644 docs/es/models/mobile-sam.md delete mode 100644 docs/es/models/rtdetr.md delete mode 100644 docs/es/models/sam.md delete mode 100644 docs/es/models/yolo-nas.md delete mode 100644 docs/es/models/yolov3.md delete mode 100644 docs/es/models/yolov4.md delete mode 100644 docs/es/models/yolov5.md delete mode 100644 docs/es/models/yolov6.md delete mode 100644 docs/es/models/yolov7.md delete mode 100644 docs/es/models/yolov8.md delete mode 100644 docs/es/modes/benchmark.md delete mode 100644 docs/es/modes/export.md delete mode 100644 docs/es/modes/index.md delete mode 100644 docs/es/modes/predict.md delete mode 100644 docs/es/modes/track.md delete mode 100644 docs/es/modes/train.md delete mode 100644 docs/es/modes/val.md delete mode 100644 docs/es/quickstart.md delete mode 100644 docs/es/tasks/classify.md delete mode 100644 docs/es/tasks/detect.md delete mode 100644 docs/es/tasks/index.md delete mode 100644 docs/es/tasks/pose.md delete mode 100644 docs/es/tasks/segment.md delete mode 100644 docs/fr/datasets/index.md delete mode 100644 docs/fr/index.md delete mode 100644 docs/fr/models/fast-sam.md delete mode 100644 docs/fr/models/index.md delete mode 100644 docs/fr/models/mobile-sam.md delete mode 100644 docs/fr/models/rtdetr.md delete mode 100644 docs/fr/models/sam.md delete mode 100644 docs/fr/models/yolo-nas.md delete mode 100644 docs/fr/models/yolov3.md delete mode 100644 docs/fr/models/yolov4.md delete mode 100644 docs/fr/models/yolov5.md delete mode 100644 docs/fr/models/yolov6.md delete mode 100644 docs/fr/models/yolov7.md delete mode 100644 docs/fr/models/yolov8.md delete mode 100644 docs/fr/modes/benchmark.md delete mode 100644 docs/fr/modes/export.md delete mode 100644 docs/fr/modes/index.md delete mode 100644 docs/fr/modes/predict.md delete mode 100644 docs/fr/modes/track.md delete mode 100644 docs/fr/modes/train.md delete mode 100644 docs/fr/modes/val.md delete mode 100644 docs/fr/quickstart.md delete mode 100644 docs/fr/tasks/classify.md delete mode 100644 docs/fr/tasks/detect.md delete mode 100644 docs/fr/tasks/index.md delete mode 100644 docs/fr/tasks/pose.md delete mode 100644 docs/fr/tasks/segment.md delete mode 100644 docs/hi/datasets/index.md delete mode 100644 docs/hi/index.md delete mode 100644 docs/hi/models/fast-sam.md delete mode 100644 docs/hi/models/index.md delete mode 100644 docs/hi/models/mobile-sam.md delete mode 100644 docs/hi/models/rtdetr.md delete mode 100644 docs/hi/models/sam.md delete mode 100644 docs/hi/models/yolo-nas.md delete mode 100644 docs/hi/models/yolov3.md delete mode 100644 docs/hi/models/yolov4.md delete mode 100644 docs/hi/models/yolov5.md delete mode 100644 docs/hi/models/yolov6.md delete mode 100644 docs/hi/models/yolov7.md delete mode 100644 docs/hi/models/yolov8.md delete mode 100644 docs/hi/modes/benchmark.md delete mode 100644 docs/hi/modes/export.md delete mode 100644 docs/hi/modes/index.md delete mode 100644 docs/hi/modes/predict.md delete mode 100644 docs/hi/modes/track.md delete mode 100644 docs/hi/modes/train.md delete mode 100644 docs/hi/modes/val.md delete mode 100644 docs/hi/quickstart.md delete mode 100644 docs/hi/tasks/classify.md delete mode 100644 docs/hi/tasks/detect.md delete mode 100644 docs/hi/tasks/index.md delete mode 100644 docs/hi/tasks/pose.md delete mode 100644 docs/hi/tasks/segment.md delete mode 100644 docs/ja/datasets/index.md delete mode 100644 docs/ja/index.md delete mode 100644 docs/ja/models/fast-sam.md delete mode 100644 docs/ja/models/index.md delete mode 100644 docs/ja/models/mobile-sam.md delete mode 100644 docs/ja/models/rtdetr.md delete mode 100644 docs/ja/models/sam.md delete mode 100644 docs/ja/models/yolo-nas.md delete mode 100644 docs/ja/models/yolov3.md delete mode 100644 docs/ja/models/yolov4.md delete mode 100644 docs/ja/models/yolov5.md delete mode 100644 docs/ja/models/yolov6.md delete mode 100644 docs/ja/models/yolov7.md delete mode 100644 docs/ja/models/yolov8.md delete mode 100644 docs/ja/modes/benchmark.md delete mode 100644 docs/ja/modes/export.md delete mode 100644 docs/ja/modes/index.md delete mode 100644 docs/ja/modes/predict.md delete mode 100644 docs/ja/modes/track.md delete mode 100644 docs/ja/modes/train.md delete mode 100644 docs/ja/modes/val.md delete mode 100644 docs/ja/quickstart.md delete mode 100644 docs/ja/tasks/classify.md delete mode 100644 docs/ja/tasks/detect.md delete mode 100644 docs/ja/tasks/index.md delete mode 100644 docs/ja/tasks/pose.md delete mode 100644 docs/ja/tasks/segment.md delete mode 100644 docs/ko/datasets/index.md delete mode 100644 docs/ko/index.md delete mode 100644 docs/ko/models/fast-sam.md delete mode 100644 docs/ko/models/index.md delete mode 100644 docs/ko/models/mobile-sam.md delete mode 100644 docs/ko/models/rtdetr.md delete mode 100644 docs/ko/models/sam.md delete mode 100644 docs/ko/models/yolo-nas.md delete mode 100644 docs/ko/models/yolov3.md delete mode 100644 docs/ko/models/yolov4.md delete mode 100644 docs/ko/models/yolov5.md delete mode 100644 docs/ko/models/yolov6.md delete mode 100644 docs/ko/models/yolov7.md delete mode 100644 docs/ko/models/yolov8.md delete mode 100644 docs/ko/modes/benchmark.md delete mode 100644 docs/ko/modes/export.md delete mode 100644 docs/ko/modes/index.md delete mode 100644 docs/ko/modes/predict.md delete mode 100644 docs/ko/modes/track.md delete mode 100644 docs/ko/modes/train.md delete mode 100644 docs/ko/modes/val.md delete mode 100644 docs/ko/quickstart.md delete mode 100644 docs/ko/tasks/classify.md delete mode 100644 docs/ko/tasks/detect.md delete mode 100644 docs/ko/tasks/index.md delete mode 100644 docs/ko/tasks/pose.md delete mode 100644 docs/ko/tasks/segment.md delete mode 100644 docs/mkdocs_ar.yml delete mode 100644 docs/mkdocs_de.yml delete mode 100644 docs/mkdocs_es.yml delete mode 100644 docs/mkdocs_fr.yml create mode 100644 docs/mkdocs_github_authors.yaml delete mode 100644 docs/mkdocs_hi.yml delete mode 100644 docs/mkdocs_ja.yml delete mode 100644 docs/mkdocs_ko.yml delete mode 100644 docs/mkdocs_pt.yml delete mode 100644 docs/mkdocs_ru.yml delete mode 100644 docs/mkdocs_zh.yml delete mode 100644 docs/pt/datasets/index.md delete mode 100644 docs/pt/index.md delete mode 100644 docs/pt/models/fast-sam.md delete mode 100644 docs/pt/models/index.md delete mode 100644 docs/pt/models/mobile-sam.md delete mode 100644 docs/pt/models/rtdetr.md delete mode 100644 docs/pt/models/sam.md delete mode 100644 docs/pt/models/yolo-nas.md delete mode 100644 docs/pt/models/yolov3.md delete mode 100644 docs/pt/models/yolov4.md delete mode 100644 docs/pt/models/yolov5.md delete mode 100644 docs/pt/models/yolov6.md delete mode 100644 docs/pt/models/yolov7.md delete mode 100644 docs/pt/models/yolov8.md delete mode 100644 docs/pt/modes/benchmark.md delete mode 100644 docs/pt/modes/export.md delete mode 100644 docs/pt/modes/index.md delete mode 100644 docs/pt/modes/predict.md delete mode 100644 docs/pt/modes/track.md delete mode 100644 docs/pt/modes/train.md delete mode 100644 docs/pt/modes/val.md delete mode 100644 docs/pt/quickstart.md delete mode 100644 docs/pt/tasks/classify.md delete mode 100644 docs/pt/tasks/detect.md delete mode 100644 docs/pt/tasks/index.md delete mode 100644 docs/pt/tasks/pose.md delete mode 100644 docs/pt/tasks/segment.md delete mode 100644 docs/ru/datasets/index.md delete mode 100644 docs/ru/index.md delete mode 100644 docs/ru/models/fast-sam.md delete mode 100644 docs/ru/models/index.md delete mode 100644 docs/ru/models/mobile-sam.md delete mode 100644 docs/ru/models/rtdetr.md delete mode 100644 docs/ru/models/sam.md delete mode 100644 docs/ru/models/yolo-nas.md delete mode 100644 docs/ru/models/yolov3.md delete mode 100644 docs/ru/models/yolov4.md delete mode 100644 docs/ru/models/yolov5.md delete mode 100644 docs/ru/models/yolov6.md delete mode 100644 docs/ru/models/yolov7.md delete mode 100644 docs/ru/models/yolov8.md delete mode 100644 docs/ru/modes/benchmark.md delete mode 100644 docs/ru/modes/export.md delete mode 100644 docs/ru/modes/index.md delete mode 100644 docs/ru/modes/predict.md delete mode 100644 docs/ru/modes/track.md delete mode 100644 docs/ru/modes/train.md delete mode 100644 docs/ru/modes/val.md delete mode 100644 docs/ru/quickstart.md delete mode 100644 docs/ru/tasks/classify.md delete mode 100644 docs/ru/tasks/detect.md delete mode 100644 docs/ru/tasks/index.md delete mode 100644 docs/ru/tasks/pose.md delete mode 100644 docs/ru/tasks/segment.md delete mode 100644 docs/update_translations.py delete mode 100644 docs/zh/datasets/index.md delete mode 100644 docs/zh/index.md delete mode 100644 docs/zh/models/fast-sam.md delete mode 100644 docs/zh/models/index.md delete mode 100644 docs/zh/models/mobile-sam.md delete mode 100644 docs/zh/models/rtdetr.md delete mode 100644 docs/zh/models/sam.md delete mode 100644 docs/zh/models/yolo-nas.md delete mode 100644 docs/zh/models/yolov3.md delete mode 100644 docs/zh/models/yolov4.md delete mode 100644 docs/zh/models/yolov5.md delete mode 100644 docs/zh/models/yolov6.md delete mode 100644 docs/zh/models/yolov7.md delete mode 100644 docs/zh/models/yolov8.md delete mode 100644 docs/zh/modes/benchmark.md delete mode 100644 docs/zh/modes/export.md delete mode 100644 docs/zh/modes/index.md delete mode 100644 docs/zh/modes/predict.md delete mode 100644 docs/zh/modes/track.md delete mode 100644 docs/zh/modes/train.md delete mode 100644 docs/zh/modes/val.md delete mode 100644 docs/zh/quickstart.md delete mode 100644 docs/zh/tasks/classify.md delete mode 100644 docs/zh/tasks/detect.md delete mode 100644 docs/zh/tasks/index.md delete mode 100644 docs/zh/tasks/pose.md delete mode 100644 docs/zh/tasks/segment.md rename docs/mkdocs.yml => mkdocs.yml (92%) create mode 100644 ultralytics/cfg/datasets/african-wildlife.yaml create mode 100644 ultralytics/cfg/datasets/brain-tumor.yaml create mode 100644 ultralytics/cfg/models/v8/yolov8-world.yaml create mode 100644 ultralytics/cfg/models/v8/yolov8-worldv2.yaml create mode 100644 ultralytics/cfg/models/v9/yolov9c.yaml create mode 100644 ultralytics/cfg/models/v9/yolov9e.yaml diff --git a/.github/workflows/ci.yaml b/.github/workflows/ci.yaml index de57ca5fec7..9154d13481a 100644 --- a/.github/workflows/ci.yaml +++ b/.github/workflows/ci.yaml @@ -6,8 +6,13 @@ name: Ultralytics CI on: push: branches: [main] + paths-ignore: + - "docs/**" + - "mkdocs.yml" pull_request: branches: [main] + paths-ignore: + - "docs/**" schedule: - cron: "0 0 * * *" # runs at 00:00 UTC every day workflow_dispatch: @@ -94,7 +99,7 @@ jobs: strategy: fail-fast: false matrix: - os: [ubuntu-latest] + os: [ubuntu-latest, macos-14] python-version: ["3.11"] model: [yolov8n] steps: @@ -108,34 +113,32 @@ jobs: run: | python -m pip install --upgrade pip wheel pip install -e ".[export]" "coverage[toml]" --extra-index-url https://download.pytorch.org/whl/cpu - # Fix SavedModel issue "partially initialized module 'jax' has no attribute 'version' (most likely due to a circular import)" in https://github.com/google/jax/discussions/14036 - # pip install -U 'jax!=0.4.15' 'jaxlib!=0.4.15' - yolo export format=tflite imgsz=32 || true + # yolo export format=tflite imgsz=32 || true - name: Check environment run: | yolo checks pip list - # - name: Benchmark DetectionModel - # shell: bash - # run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/${{ matrix.model }}.pt' imgsz=160 verbose=0.318 + - name: Benchmark YOLOWorld DetectionModel + shell: bash + run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/yolov8s-worldv2.pt' imgsz=160 verbose=0.318 - name: Benchmark SegmentationModel shell: bash - run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/${{ matrix.model }}-seg.pt' imgsz=160 verbose=0.286 + run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/${{ matrix.model }}-seg.pt' imgsz=160 verbose=0.281 - name: Benchmark ClassificationModel shell: bash run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/${{ matrix.model }}-cls.pt' imgsz=160 verbose=0.166 - name: Benchmark PoseModel shell: bash - run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/${{ matrix.model }}-pose.pt' imgsz=160 verbose=0.185 + run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/${{ matrix.model }}-pose.pt' imgsz=160 verbose=0.183 - name: Benchmark OBBModel shell: bash - run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/${{ matrix.model }}-obb.pt' imgsz=160 verbose=0.360 + run: coverage run -a --source=ultralytics -m ultralytics.cfg.__init__ benchmark model='path with spaces/${{ matrix.model }}-obb.pt' imgsz=160 verbose=0.472 - name: Merge Coverage Reports run: | coverage xml -o coverage-benchmarks.xml - name: Upload Coverage Reports to CodeCov if: github.repository == 'ultralytics/ultralytics' - uses: codecov/codecov-action@v3 + uses: codecov/codecov-action@v4 with: flags: Benchmarks env: @@ -152,7 +155,7 @@ jobs: strategy: fail-fast: false matrix: - os: [ubuntu-latest] + os: [ubuntu-latest, macos-14] python-version: ["3.11"] torch: [latest] include: @@ -174,7 +177,7 @@ jobs: if [ "${{ matrix.torch }}" == "1.8.0" ]; then torch="torch==1.8.0 torchvision==0.9.0" fi - pip install -e . $torch pytest-cov "coremltools>=7.0" --extra-index-url https://download.pytorch.org/whl/cpu + pip install -e . $torch pytest-cov "coremltools>=7.0; platform_system != 'Windows' and python_version <= '3.11'" --extra-index-url https://download.pytorch.org/whl/cpu - name: Check environment run: | yolo checks @@ -184,13 +187,14 @@ jobs: run: | slow="" if [[ "${{ github.event_name }}" == "schedule" ]] || [[ "${{ github.event_name }}" == "workflow_dispatch" ]]; then - pip install mlflow pycocotools 'ray[tune]' + # WARNING bug in ray>=2.10.0 + pip install mlflow pycocotools "ray[tune]<=2.9.3" slow="--slow" fi pytest $slow --cov=ultralytics/ --cov-report xml tests/ - name: Upload Coverage Reports to CodeCov if: github.repository == 'ultralytics/ultralytics' # && matrix.os == 'ubuntu-latest' && matrix.python-version == '3.11' - uses: codecov/codecov-action@v3 + uses: codecov/codecov-action@v4 with: flags: Tests env: @@ -211,14 +215,14 @@ jobs: - name: Pytest tests run: pytest --cov=ultralytics/ --cov-report xml tests/test_cuda.py - name: Upload Coverage Reports to CodeCov - uses: codecov/codecov-action@v3 + uses: codecov/codecov-action@v4 with: flags: GPU env: CODECOV_TOKEN: ${{ secrets.CODECOV_TOKEN }} Conda: - if: github.repository == 'ultralytics/ultralytics' && (github.event_name == 'schedule_disabled' || github.event.inputs.conda == 'true') + if: github.repository == 'ultralytics/ultralytics' && (github.event_name == 'schedule' || github.event.inputs.conda == 'true') runs-on: ${{ matrix.os }} strategy: fail-fast: false @@ -236,6 +240,11 @@ jobs: channels: conda-forge,defaults channel-priority: true activate-environment: anaconda-client-env + - name: Install Linux packages + run: | + # Fix cv2 ImportError: 'libEGL.so.1: cannot open shared object file: No such file or directory' + sudo apt-get update + sudo apt-get install -y libegl1 libopengl0 - name: Install Libmamba run: | conda config --set solver libmamba @@ -244,7 +253,8 @@ jobs: conda install -c pytorch -c conda-forge pytorch torchvision ultralytics openvino - name: Install pip packages run: | - pip install pytest 'coremltools>=7.0' + # CoreML must be installed before export due to protobuf error from AutoInstall + pip install pytest "coremltools>=7.0; platform_system != 'Windows' and python_version <= '3.11'" - name: Check environment run: | conda list @@ -276,7 +286,7 @@ jobs: steps: - name: Check for failure and notify if: (needs.HUB.result == 'failure' || needs.Benchmarks.result == 'failure' || needs.Tests.result == 'failure' || needs.GPU.result == 'failure' || needs.Conda.result == 'failure') && github.repository == 'ultralytics/ultralytics' && (github.event_name == 'schedule' || github.event_name == 'push') - uses: slackapi/slack-github-action@v1.24.0 + uses: slackapi/slack-github-action@v1.25.0 with: payload: | {"text": " GitHub Actions error for ${{ github.workflow }} ❌\n\n\n*Repository:* https://github.com/${{ github.repository }}\n*Action:* https://github.com/${{ github.repository }}/actions/runs/${{ github.run_id }}\n*Author:* ${{ github.actor }}\n*Event:* ${{ github.event_name }}\n"} diff --git a/.github/workflows/cla.yml b/.github/workflows/cla.yml index a11ee196314..376974e7d1a 100644 --- a/.github/workflows/cla.yml +++ b/.github/workflows/cla.yml @@ -18,7 +18,7 @@ jobs: steps: - name: CLA Assistant if: (github.event.comment.body == 'recheck' || github.event.comment.body == 'I have read the CLA Document and I sign the CLA') || github.event_name == 'pull_request_target' - uses: contributor-assistant/github-action@v2.3.1 + uses: contributor-assistant/github-action@v2.3.2 env: GITHUB_TOKEN: ${{ secrets.GITHUB_TOKEN }} # must be repository secret token diff --git a/.github/workflows/docker.yaml b/.github/workflows/docker.yaml index e98f8c0153a..afd2a66384f 100644 --- a/.github/workflows/docker.yaml +++ b/.github/workflows/docker.yaml @@ -6,6 +6,9 @@ name: Publish Docker Images on: push: branches: [main] + paths-ignore: + - "docs/**" + - "mkdocs.yml" workflow_dispatch: inputs: Dockerfile: @@ -109,10 +112,18 @@ jobs: - name: Build Image if: github.event_name == 'push' || github.event.inputs[matrix.dockerfile] == 'true' - run: | - docker build --platform ${{ matrix.platforms }} -f docker/${{ matrix.dockerfile }} \ - -t ultralytics/ultralytics:${{ matrix.tags }} \ - -t ultralytics/ultralytics:${{ steps.get_version.outputs.version_tag }} . + uses: nick-invision/retry@v3 + with: + timeout_minutes: 60 + retry_wait_seconds: 30 + max_attempts: 2 # retry once + command: | + docker build \ + --platform ${{ matrix.platforms }} \ + -f docker/${{ matrix.dockerfile }} \ + -t ultralytics/ultralytics:${{ matrix.tags }} \ + -t ultralytics/ultralytics:${{ steps.get_version.outputs.version_tag }} \ + . - name: Run Tests if: (github.event_name == 'push' || github.event.inputs[matrix.dockerfile] == 'true') && matrix.platforms == 'linux/amd64' && matrix.dockerfile != 'Dockerfile-conda' # arm64 images not supported on GitHub CI runners @@ -140,7 +151,7 @@ jobs: - name: Notify on failure if: github.event_name == 'push' && failure() # do not notify on cancelled() as cancelling is performed by hand - uses: slackapi/slack-github-action@v1.24.0 + uses: slackapi/slack-github-action@v1.25.0 with: payload: | {"text": " GitHub Actions error for ${{ github.workflow }} ❌\n\n\n*Repository:* https://github.com/${{ github.repository }}\n*Action:* https://github.com/${{ github.repository }}/actions/runs/${{ github.run_id }}\n*Author:* ${{ github.actor }}\n*Event:* ${{ github.event_name }}\n"} diff --git a/.github/workflows/format.yml b/.github/workflows/format.yml index 33cf782bc6b..470d4f348d8 100644 --- a/.github/workflows/format.yml +++ b/.github/workflows/format.yml @@ -26,4 +26,3 @@ jobs: summary: true # print PR summary with GPT4 (requires 'openai_api_key' or 'openai_azure_api_key' and 'openai_azure_endpoint') openai_azure_api_key: ${{ secrets.OPENAI_AZURE_API_KEY }} openai_azure_endpoint: ${{ secrets.OPENAI_AZURE_ENDPOINT }} - # openai_api_key: ${{ secrets.OPENAI_API_KEY }} diff --git a/.github/workflows/links.yml b/.github/workflows/links.yml index 7109800c9f4..73542b3a3d7 100644 --- a/.github/workflows/links.yml +++ b/.github/workflows/links.yml @@ -28,7 +28,7 @@ jobs: sudo mv lychee /usr/local/bin - name: Test Markdown and HTML links with retry - uses: nick-invision/retry@v2 + uses: nick-invision/retry@v3 with: timeout_minutes: 5 retry_wait_seconds: 60 @@ -36,8 +36,10 @@ jobs: command: | lychee \ --scheme https \ + --timeout 60 \ + --insecure \ --accept 403,429,500,502,999 \ - --exclude-loopback \ + --exclude-all-private \ --exclude 'https?://(www\.)?(linkedin\.com|twitter\.com|instagram\.com|kaggle\.com|fonts\.gstatic\.com|url\.com)' \ --exclude-path docs/zh \ --exclude-path docs/es \ @@ -55,7 +57,7 @@ jobs: - name: Test Markdown, HTML, YAML, Python and Notebook links with retry if: github.event_name == 'workflow_dispatch' - uses: nick-invision/retry@v2 + uses: nick-invision/retry@v3 with: timeout_minutes: 5 retry_wait_seconds: 60 @@ -63,8 +65,10 @@ jobs: command: | lychee \ --scheme https \ + --timeout 60 \ + --insecure \ --accept 429,999 \ - --exclude-loopback \ + --exclude-all-private \ --exclude 'https?://(www\.)?(linkedin\.com|twitter\.com|instagram\.com|kaggle\.com|fonts\.gstatic\.com|url\.com)' \ --exclude-path '**/ci.yaml' \ --exclude-path docs/zh \ diff --git a/.github/workflows/publish.yml b/.github/workflows/publish.yml index b3f14e52110..ca2980f4a97 100644 --- a/.github/workflows/publish.yml +++ b/.github/workflows/publish.yml @@ -67,6 +67,7 @@ jobs: PERSONAL_ACCESS_TOKEN: ${{ secrets.PERSONAL_ACCESS_TOKEN }} INDEXNOW_KEY: ${{ secrets.INDEXNOW_KEY_DOCS }} run: | + export JUPYTER_PLATFORM_DIRS=1 python docs/build_docs.py git config --global user.name "Glenn Jocher" git config --global user.email "glenn.jocher@ultralytics.com" @@ -96,7 +97,7 @@ jobs: echo "PR_TITLE=$PR_TITLE" >> $GITHUB_ENV - name: Notify on Slack (Success) if: success() && github.event_name == 'push' && steps.check_pypi.outputs.increment == 'True' - uses: slackapi/slack-github-action@v1.24.0 + uses: slackapi/slack-github-action@v1.25.0 with: payload: | {"text": " GitHub Actions success for ${{ github.workflow }} ✅\n\n\n*Repository:* https://github.com/${{ github.repository }}\n*Action:* https://github.com/${{ github.repository }}/actions/runs/${{ github.run_id }}\n*Author:* ${{ github.actor }}\n*Event:* NEW 'ultralytics ${{ steps.check_pypi.outputs.version }}' pip package published 😃\n*Job Status:* ${{ job.status }}\n*Pull Request:* ${{ env.PR_TITLE }}\n"} @@ -104,7 +105,7 @@ jobs: SLACK_WEBHOOK_URL: ${{ secrets.SLACK_WEBHOOK_URL_YOLO }} - name: Notify on Slack (Failure) if: failure() - uses: slackapi/slack-github-action@v1.24.0 + uses: slackapi/slack-github-action@v1.25.0 with: payload: | {"text": " GitHub Actions error for ${{ github.workflow }} ❌\n\n\n*Repository:* https://github.com/${{ github.repository }}\n*Action:* https://github.com/${{ github.repository }}/actions/runs/${{ github.run_id }}\n*Author:* ${{ github.actor }}\n*Event:* ${{ github.event_name }}\n*Job Status:* ${{ job.status }}\n*Pull Request:* ${{ env.PR_TITLE }}\n"} diff --git a/.gitignore b/.gitignore index c8987d84a7f..0854267a547 100644 --- a/.gitignore +++ b/.gitignore @@ -29,7 +29,7 @@ MANIFEST # PyInstaller # Usually these files are written by a python script from a template -# before PyInstaller builds the exe, so as to inject date/other infos into it. +# before PyInstaller builds the exe, so as to inject date/other info into it. *.manifest *.spec @@ -50,6 +50,7 @@ coverage.xml *.py,cover .hypothesis/ .pytest_cache/ +mlruns/ # Translations *.mo diff --git a/CITATION.cff b/CITATION.cff index eead1a3b542..bee0abe21a7 100644 --- a/CITATION.cff +++ b/CITATION.cff @@ -1,20 +1,26 @@ +# This CITATION.cff file was generated with https://bit.ly/cffinit + cff-version: 1.2.0 -preferred-citation: - type: software - message: If you use this software, please cite it as below. - authors: - - family-names: Jocher - given-names: Glenn - orcid: "https://orcid.org/0000-0001-5950-6979" - - family-names: Chaurasia - given-names: Ayush - orcid: "https://orcid.org/0000-0002-7603-6750" +title: Ultralytics YOLO +message: >- + If you use this software, please cite it using the + metadata from this file. +type: software +authors: + - given-names: Glenn + family-names: Jocher + affiliation: Ultralytics + orcid: 'https://orcid.org/0000-0001-5950-6979' + - given-names: Ayush + family-names: Chaurasia + affiliation: Ultralytics + orcid: 'https://orcid.org/0000-0002-7603-6750' - family-names: Qiu given-names: Jing - orcid: "https://orcid.org/0000-0003-3783-7069" - title: "Ultralytics YOLO" - version: 8.0.0 - # doi: 10.5281/zenodo.3908559 # TODO - date-released: 2023-1-10 - license: AGPL-3.0 - url: "https://github.com/ultralytics/ultralytics" + affiliation: Ultralytics + orcid: 'https://orcid.org/0000-0003-3783-7069' +repository-code: 'https://github.com/ultralytics/ultralytics' +url: 'https://ultralytics.com' +license: AGPL-3.0 +version: 8.0.0 +date-released: '2023-01-10' diff --git a/README.md b/README.md index 76b894f1783..bb3b596da9e 100644 --- a/README.md +++ b/README.md @@ -109,7 +109,7 @@ Ultralytics provides interactive notebooks for YOLOv8, covering training, valida | YOLOv8 Multi-Object Tracking in Videos | Open In Colab |
Ultralytics Youtube Video
| | YOLOv8 Object Counting in Videos | Open In Colab |
Ultralytics Youtube Video
| | YOLOv8 Heatmaps in Videos | Open In Colab |
Ultralytics Youtube Video
| -| Ultralytics Datasets Explorer with SQL and OpenAI Integration 🚀 New | Open In Colab | Coming Soon | +| Ultralytics Datasets Explorer with SQL and OpenAI Integration 🚀 New | Open In Colab |
Ultralytics Youtube Video
| ##
Models
@@ -200,7 +200,7 @@ See [OBB Docs](https://docs.ultralytics.com/tasks/obb/) for usage examples with | [YOLOv8l-obb](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-obb.pt) | 1024 | 80.7 | 1278.42 | 11.83 | 44.5 | 433.8 | | [YOLOv8x-obb](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-obb.pt) | 1024 | 81.36 | 1759.10 | 13.23 | 69.5 | 676.7 | -- **mAPtest** values are for single-model multi-scale on [DOTAv1](https://captain-whu.github.io/DOTA/index.html) dataset.
Reproduce by `yolo val obb data=DOTAv1.yaml device=0 split=test` and submit merged results to [DOTA evaluation](https://captain-whu.github.io/DOTA/evaluation.html). +- **mAPtest** values are for single-model multiscale on [DOTAv1](https://captain-whu.github.io/DOTA/index.html) dataset.
Reproduce by `yolo val obb data=DOTAv1.yaml device=0 split=test` and submit merged results to [DOTA evaluation](https://captain-whu.github.io/DOTA/evaluation.html). - **Speed** averaged over DOTAv1 val images using an [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) instance.
Reproduce by `yolo val obb data=DOTAv1.yaml batch=1 device=0|cpu` diff --git a/README.zh-CN.md b/README.zh-CN.md index 32ad09e5307..7af023f498a 100644 --- a/README.zh-CN.md +++ b/README.zh-CN.md @@ -104,14 +104,14 @@ success = model.export(format="onnx") # 将模型导出为 ONNX 格式 Ultralytics 提供了 YOLOv8 的交互式笔记本,涵盖训练、验证、跟踪等内容。每个笔记本都配有 [YouTube](https://youtube.com/ultralytics) 教程,使学习和实现高级 YOLOv8 功能变得简单。 -| 文档 | 笔记本 | YouTube | -| ------------------------------------------------------------------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | :----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------: | -| YOLOv8 训练、验证、预测和导出模式 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| -| Ultralytics HUB 快速开始 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| -| YOLOv8 视频中的多对象跟踪 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| -| YOLOv8 视频中的对象计数 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| -| YOLOv8 视频中的热图 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| -| Ultralytics 数据集浏览器,集成 SQL 和 OpenAI 🚀 New | 在 Colab 中打开 | 即将推出 | +| 文档 | 笔记本 | YouTube | +| ------------------------------------------------------------------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | :-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------: | +| YOLOv8 训练、验证、预测和导出模式 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| +| Ultralytics HUB 快速开始 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| +| YOLOv8 视频中的多对象跟踪 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| +| YOLOv8 视频中的对象计数 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| +| YOLOv8 视频中的热图 | 在 Colab 中打开 |
Ultralytics Youtube 视频
| +| Ultralytics 数据集浏览器,集成 SQL 和 OpenAI 🚀 New | 在 Colab 中打开 |
Ultralytics Youtube Video
| ##
模型
diff --git a/docker/Dockerfile b/docker/Dockerfile index 867ec6be93a..b96173eef3e 100644 --- a/docker/Dockerfile +++ b/docker/Dockerfile @@ -3,11 +3,13 @@ # Image is CUDA-optimized for YOLOv8 single/multi-GPU training and inference # Start FROM PyTorch image https://hub.docker.com/r/pytorch/pytorch or nvcr.io/nvidia/pytorch:23.03-py3 -FROM pytorch/pytorch:2.1.0-cuda12.1-cudnn8-runtime +FROM pytorch/pytorch:2.2.0-cuda12.1-cudnn8-runtime RUN pip install --no-cache nvidia-tensorrt --index-url https://pypi.ngc.nvidia.com # Downloads to user config dir -ADD https://ultralytics.com/assets/Arial.ttf https://ultralytics.com/assets/Arial.Unicode.ttf /root/.config/Ultralytics/ +ADD https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.ttf \ + https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.Unicode.ttf \ + /root/.config/Ultralytics/ # Install linux packages # g++ required to build 'tflite_support' and 'lap' packages, libusb-1.0-0 required for 'tflite_support' package @@ -28,10 +30,11 @@ ADD https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt /u # Install pip packages RUN python3 -m pip install --upgrade pip wheel -RUN pip install --no-cache -e ".[export]" albumentations comet pycocotools lancedb pytest-cov +RUN pip install --no-cache -e ".[export]" albumentations comet pycocotools # Run exports to AutoInstall packages -RUN yolo export model=tmp/yolov8n.pt format=edgetpu imgsz=32 +# Edge TPU export fails the first time so is run twice here +RUN yolo export model=tmp/yolov8n.pt format=edgetpu imgsz=32 || yolo export model=tmp/yolov8n.pt format=edgetpu imgsz=32 RUN yolo export model=tmp/yolov8n.pt format=ncnn imgsz=32 # Requires <= Python 3.10, bug with paddlepaddle==2.5.0 https://github.com/PaddlePaddle/X2Paddle/issues/991 RUN pip install --no-cache paddlepaddle>=2.6.0 x2paddle diff --git a/docker/Dockerfile-arm64 b/docker/Dockerfile-arm64 index 5f029274e63..e9ab84c0ca2 100644 --- a/docker/Dockerfile-arm64 +++ b/docker/Dockerfile-arm64 @@ -1,17 +1,21 @@ # Ultralytics YOLO 🚀, AGPL-3.0 license # Builds ultralytics/ultralytics:latest-arm64 image on DockerHub https://hub.docker.com/r/ultralytics/ultralytics -# Image is aarch64-compatible for Apple M1 and other ARM architectures i.e. Jetson Nano and Raspberry Pi +# Image is aarch64-compatible for Apple M1, M2, M3, Raspberry Pi and other ARM architectures -# Start FROM Ubuntu image https://hub.docker.com/_/ubuntu -FROM arm64v8/ubuntu:22.04 +# Start FROM Ubuntu image https://hub.docker.com/_/ubuntu with "FROM arm64v8/ubuntu:22.04" (deprecated) +# Start FROM Debian image for arm64v8 https://hub.docker.com/r/arm64v8/debian (new) +FROM arm64v8/debian:bookworm-slim # Downloads to user config dir -ADD https://ultralytics.com/assets/Arial.ttf https://ultralytics.com/assets/Arial.Unicode.ttf /root/.config/Ultralytics/ +ADD https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.ttf \ + https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.Unicode.ttf \ + /root/.config/Ultralytics/ # Install linux packages # g++ required to build 'tflite_support' and 'lap' packages, libusb-1.0-0 required for 'tflite_support' package +# cmake and build-essential is needed to build onnxsim when exporting to tflite RUN apt update \ - && apt install --no-install-recommends -y python3-pip git zip curl htop gcc libgl1 libglib2.0-0 libpython3-dev gnupg g++ libusb-1.0-0 + && apt install --no-install-recommends -y python3-pip git zip curl htop gcc libgl1 libglib2.0-0 libpython3-dev gnupg g++ libusb-1.0-0 build-essential # Create working directory WORKDIR /usr/src/ultralytics @@ -21,9 +25,12 @@ WORKDIR /usr/src/ultralytics RUN git clone https://github.com/ultralytics/ultralytics -b main /usr/src/ultralytics ADD https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt /usr/src/ultralytics/ +# Remove python3.11/EXTERNALLY-MANAGED to avoid 'externally-managed-environment' issue, Debian 12 Bookworm error +RUN rm -rf /usr/lib/python3.11/EXTERNALLY-MANAGED + # Install pip packages RUN python3 -m pip install --upgrade pip wheel -RUN pip install --no-cache -e . +RUN pip install --no-cache -e ".[export]" # Creates a symbolic link to make 'python' point to 'python3' RUN ln -sf /usr/bin/python3 /usr/bin/python diff --git a/docker/Dockerfile-conda b/docker/Dockerfile-conda index fe3aed5f2d2..30d4ce1c650 100644 --- a/docker/Dockerfile-conda +++ b/docker/Dockerfile-conda @@ -6,7 +6,9 @@ FROM continuumio/miniconda3:latest # Downloads to user config dir -ADD https://ultralytics.com/assets/Arial.ttf https://ultralytics.com/assets/Arial.Unicode.ttf /root/.config/Ultralytics/ +ADD https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.ttf \ + https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.Unicode.ttf \ + /root/.config/Ultralytics/ # Install linux packages RUN apt update \ diff --git a/docker/Dockerfile-cpu b/docker/Dockerfile-cpu index 15b741102a6..f829ebfa247 100644 --- a/docker/Dockerfile-cpu +++ b/docker/Dockerfile-cpu @@ -6,7 +6,9 @@ FROM ubuntu:23.10 # Downloads to user config dir -ADD https://ultralytics.com/assets/Arial.ttf https://ultralytics.com/assets/Arial.Unicode.ttf /root/.config/Ultralytics/ +ADD https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.ttf \ + https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.Unicode.ttf \ + /root/.config/Ultralytics/ # Install linux packages # g++ required to build 'tflite_support' and 'lap' packages, libusb-1.0-0 required for 'tflite_support' package @@ -26,7 +28,7 @@ RUN rm -rf /usr/lib/python3.11/EXTERNALLY-MANAGED # Install pip packages RUN python3 -m pip install --upgrade pip wheel -RUN pip install --no-cache -e ".[export]" lancedb --extra-index-url https://download.pytorch.org/whl/cpu +RUN pip install --no-cache -e ".[export]" --extra-index-url https://download.pytorch.org/whl/cpu # Run exports to AutoInstall packages RUN yolo export model=tmp/yolov8n.pt format=edgetpu imgsz=32 @@ -46,10 +48,10 @@ RUN ln -sf /usr/bin/python3 /usr/bin/python # t=ultralytics/ultralytics:latest-cpu && sudo docker build -f docker/Dockerfile-cpu -t $t . && sudo docker push $t # Run -# t=ultralytics/ultralytics:latest-cpu && sudo docker run -it --ipc=host $t +# t=ultralytics/ultralytics:latest-cpu && sudo docker run -it --ipc=host --name NAME $t # Pull and Run -# t=ultralytics/ultralytics:latest-cpu && sudo docker pull $t && sudo docker run -it --ipc=host $t +# t=ultralytics/ultralytics:latest-cpu && sudo docker pull $t && sudo docker run -it --ipc=host --name NAME $t # Pull and Run with local volume mounted # t=ultralytics/ultralytics:latest-cpu && sudo docker pull $t && sudo docker run -it --ipc=host -v "$(pwd)"/datasets:/usr/src/datasets $t diff --git a/docker/Dockerfile-jetson b/docker/Dockerfile-jetson index 61cc2ad9dd6..6528628ad1d 100644 --- a/docker/Dockerfile-jetson +++ b/docker/Dockerfile-jetson @@ -6,7 +6,9 @@ FROM nvcr.io/nvidia/l4t-pytorch:r35.2.1-pth2.0-py3 # Downloads to user config dir -ADD https://ultralytics.com/assets/Arial.ttf https://ultralytics.com/assets/Arial.Unicode.ttf /root/.config/Ultralytics/ +ADD https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.ttf \ + https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.Unicode.ttf \ + /root/.config/Ultralytics/ # Install linux packages # g++ required to build 'tflite_support' and 'lap' packages, libusb-1.0-0 required for 'tflite_support' package diff --git a/docker/Dockerfile-python b/docker/Dockerfile-python index b2a8a162932..8423dbb813f 100644 --- a/docker/Dockerfile-python +++ b/docker/Dockerfile-python @@ -6,7 +6,9 @@ FROM python:3.10-slim-bookworm # Downloads to user config dir -ADD https://ultralytics.com/assets/Arial.ttf https://ultralytics.com/assets/Arial.Unicode.ttf /root/.config/Ultralytics/ +ADD https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.ttf \ + https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.Unicode.ttf \ + /root/.config/Ultralytics/ # Install linux packages # g++ required to build 'tflite_support' and 'lap' packages, libusb-1.0-0 required for 'tflite_support' package @@ -26,7 +28,7 @@ ADD https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt /u # Install pip packages RUN python3 -m pip install --upgrade pip wheel -RUN pip install --no-cache -e ".[export]" lancedb --extra-index-url https://download.pytorch.org/whl/cpu +RUN pip install --no-cache -e ".[export]" --extra-index-url https://download.pytorch.org/whl/cpu # Run exports to AutoInstall packages RUN yolo export model=tmp/yolov8n.pt format=edgetpu imgsz=32 diff --git a/docs/README.md b/docs/README.md index db4fef2db20..954e130cd08 100644 --- a/docs/README.md +++ b/docs/README.md @@ -1,102 +1,140 @@ -# Ultralytics Docs +
+ -Ultralytics Docs are deployed to [https://docs.ultralytics.com](https://docs.ultralytics.com). +# 📚 Ultralytics Docs -[![pages-build-deployment](https://github.com/ultralytics/docs/actions/workflows/pages/pages-build-deployment/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/pages/pages-build-deployment) [![Check Broken links](https://github.com/ultralytics/docs/actions/workflows/links.yml/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/links.yml) +Ultralytics Docs are the gateway to understanding and utilizing our cutting-edge machine learning tools. These documents are deployed to [https://docs.ultralytics.com](https://docs.ultralytics.com) for your convenience. -## Install Ultralytics package +[![pages-build-deployment](https://github.com/ultralytics/docs/actions/workflows/pages/pages-build-deployment/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/pages/pages-build-deployment) [![Check Broken links](https://github.com/ultralytics/docs/actions/workflows/links.yml/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/links.yml) [![Check Domains](https://github.com/ultralytics/docs/actions/workflows/check_domains.yml/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/check_domains.yml) [![Ultralytics Actions](https://github.com/ultralytics/docs/actions/workflows/format.yml/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/format.yml) Discord + +## 🛠️ Installation [![PyPI version](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Downloads](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) -To install the ultralytics package in developer mode, you will need to have Git and Python 3 installed on your system. Then, follow these steps: +To install the ultralytics package in developer mode, ensure you have Git and Python 3 installed on your system. Then, follow these steps: 1. Clone the ultralytics repository to your local machine using Git: - ```bash - git clone https://github.com/ultralytics/ultralytics.git - ``` - -2. Navigate to the root directory of the repository: + ```bash + git clone https://github.com/ultralytics/ultralytics.git + ``` - ```bash - cd ultralytics - ``` +2. Navigate to the cloned repository's root directory: -3. Install the package in developer mode using pip: + ```bash + cd ultralytics + ``` - ```bash - pip install -e '.[dev]' - ``` +3. Install the package in developer mode using pip (or pip3 for Python 3): -This will install the ultralytics package and its dependencies in developer mode, allowing you to make changes to the package code and have them reflected immediately in your Python environment. + ```bash + pip install -e '.[dev]' + ``` -Note that you may need to use the pip3 command instead of pip if you have multiple versions of Python installed on your system. +- This command installs the ultralytics package along with all development dependencies, allowing you to modify the package code and have the changes immediately reflected in your Python environment. -## Building and Serving Locally +## 🚀 Building and Serving Locally -The `mkdocs serve` command is used to build and serve a local version of the MkDocs documentation site. It is typically used during the development and testing phase of a documentation project. +The `mkdocs serve` command builds and serves a local version of your MkDocs documentation, ideal for development and testing: ```bash mkdocs serve ``` -Here is a breakdown of what this command does: +- #### Command Breakdown: -- `mkdocs`: This is the command-line interface (CLI) for the MkDocs static site generator. It is used to build and serve MkDocs sites. -- `serve`: This is a subcommand of the `mkdocs` CLI that tells it to build and serve the documentation site locally. -- `-a`: This flag specifies the hostname and port number to bind the server to. The default value is `localhost:8000`. -- `-t`: This flag specifies the theme to use for the documentation site. The default value is `mkdocs`. -- `-s`: This flag tells the `serve` command to serve the site in silent mode, which means it will not display any log messages or progress updates. When you run the `mkdocs serve` command, it will build the documentation site using the files in the `docs/` directory and serve it at the specified hostname and port number. You can then view the site by going to the URL in your web browser. + - `mkdocs` is the main MkDocs command-line interface. + - `serve` is the subcommand to build and locally serve your documentation. -While the site is being served, you can make changes to the documentation files and see them reflected in the live site immediately. This is useful for testing and debugging your documentation before deploying it to a live server. +- 🧐 Note: -To stop the serve command and terminate the local server, you can use the `CTRL+C` keyboard shortcut. + - Grasp changes to the docs in real-time as `mkdocs serve` supports live reloading. + - To stop the local server, press `CTRL+C`. -## Building and Serving Multi-Language +## 🌍 Building and Serving Multi-Language -For multi-language MkDocs sites use the following additional steps: +Supporting multi-language documentation? Follow these steps: -1. Add all new language `*.md` files to git commit: `git add docs/**/*.md -f` -2. Build all languages to the `/site` directory. Verify that the top-level `/site` directory contains `CNAME`, `robots.txt` and `sitemap.xml` files, if applicable. +1. Stage all new language \*.md files with Git: - ```bash - # Remove existing /site directory - rm -rf site + ```bash + git add docs/**/*.md -f + ``` - # Loop through all YAML files in the docs directory - mkdocs build -f docs/mkdocs.yml - for file in docs/mkdocs_*.yml; do - echo "Building MkDocs site with configuration file: $file" - mkdocs build -f "$file" - done - ``` +2. Build all languages to the `/site` folder, ensuring relevant root-level files are present: -3. Preview in web browser with: + ```bash + # Clear existing /site directory + rm -rf site - ```bash - cd site - python -m http.server - open http://localhost:8000 # on macOS - ``` + # Loop through each language config file and build + mkdocs build -f docs/mkdocs.yml + for file in docs/mkdocs_*.yml; do + echo "Building MkDocs site with $file" + mkdocs build -f "$file" + done + ``` -Note the above steps are combined into the Ultralytics [build_docs.py](https://github.com/ultralytics/ultralytics/blob/main/docs/build_docs.py) script. +3. To preview your site, initiate a simple HTTP server: -## Deploying Your Documentation Site + ```bash + cd site + python -m http.server + # Open in your preferred browser + ``` -To deploy your MkDocs documentation site, you will need to choose a hosting provider and a deployment method. Some popular options include GitHub Pages, GitLab Pages, and Amazon S3. +- 🖥️ Access the live site at `http://localhost:8000`. -Before you can deploy your site, you will need to configure your `mkdocs.yml` file to specify the remote host and any other necessary deployment settings. +## 📤 Deploying Your Documentation Site -Once you have configured your `mkdocs.yml` file, you can use the `mkdocs deploy` command to build and deploy your site. This command will build the documentation site using the files in the `docs/` directory and the specified configuration file and theme, and then deploy the site to the specified remote host. +Choose a hosting provider and deployment method for your MkDocs documentation: -For example, to deploy your site to GitHub Pages using the gh-deploy plugin, you can use the following command: +- Configure `mkdocs.yml` with deployment settings. +- Use `mkdocs deploy` to build and deploy your site. -```bash -mkdocs gh-deploy -``` +* ### GitHub Pages Deployment Example: + ```bash + mkdocs gh-deploy + ``` -If you are using GitHub Pages, you can set a custom domain for your documentation site by going to the "Settings" page for your repository and updating the "Custom domain" field in the "GitHub Pages" section. +- Update the "Custom domain" in your repository's settings for a personalized URL. ![196814117-fc16e711-d2be-4722-9536-b7c6d78fd167](https://user-images.githubusercontent.com/26833433/210150206-9e86dcd7-10af-43e4-9eb2-9518b3799eac.png) -For more information on deploying your MkDocs documentation site, see the [MkDocs documentation](https://www.mkdocs.org/user-guide/deploying-your-docs/). +- For detailed deployment guidance, consult the [MkDocs documentation](https://www.mkdocs.org/user-guide/deploying-your-docs/). + +## 💡 Contribute + +We cherish the community's input as it drives Ultralytics open-source initiatives. Dive into the [Contributing Guide](https://docs.ultralytics.com/help/contributing) and share your thoughts via our [Survey](https://ultralytics.com/survey?utm_source=github&utm_medium=social&utm_campaign=Survey). A heartfelt thank you 🙏 to each contributor! + + + +![Ultralytics open-source contributors](https://github.com/ultralytics/assets/raw/main/im/image-contributors.png) + +## 📜 License + +Ultralytics presents two licensing options: + +- **AGPL-3.0 License**: Perfect for academia and open collaboration. Details are in the [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) file. +- **Enterprise License**: Tailored for commercial usage, offering a seamless blend of Ultralytics technology in your products. Learn more at [Ultralytics Licensing](https://ultralytics.com/license). + +## ✉️ Contact + +For bug reports and feature requests, navigate to [GitHub Issues](https://github.com/ultralytics/docs/issues). Engage with peers and the Ultralytics team on [Discord](https://ultralytics.com/discord) for enriching conversations! + +
+
+ Ultralytics GitHub + space + Ultralytics LinkedIn + space + Ultralytics Twitter + space + Ultralytics YouTube + space + Ultralytics TikTok + space + Ultralytics Instagram + space + Ultralytics Discord +
diff --git a/docs/ar/datasets/index.md b/docs/ar/datasets/index.md deleted file mode 100644 index 4ee98954276..00000000000 --- a/docs/ar/datasets/index.md +++ /dev/null @@ -1,127 +0,0 @@ ---- -comments: true -description: استكشف مجموعات بيانات الرؤية الحاسوبية المدعومة بواسطة Ultralytics لكشف الكائنات وتجزئة الصور وتقدير الركض وتصنيف الصور وتعقب الأجسام المتعددة. -keywords: الرؤية الحاسوبية ، مجموعات البيانات ، Ultralytics ، يوه ، كشف الكائنات ، تجزئة النموذج ، تقدير الركض ، تصنيف الصور ، تعقب الأجسام المتعددة ---- - -# نظرة عامة على مجموعات البيانات - -توفر Ultralytics الدعم لمجموعة متنوعة من مجموعات البيانات لتسهيل المهام الخاصة بالرؤية الحاسوبية مثل الكشف وتجزئة الكائنات وتقدير الركض وتصنيف الصور وتعقب الأجسام المتعددة. فيما يلي قائمة بالمجموعات الرئيسية التي يدعمها Ultralytics ، تليها ملخص لكل مهمة في الرؤية الحاسوبية ومجموعات البيانات المتعلقة بها. - -!!! Note "ملاحظة" - - 🚧 قسم الوثائق ذو اللغات المتعددة قيد الإنشاء حاليًا ، ونعمل بجد لتحسينه. نشكرك على صبرك! 🙏 - -## [مجموعات بيانات الكشف](../../datasets/detect/index.md) - -يعد كشف الكائنات بواسطة صندوق محيط هو تقنية في الرؤية الحاسوبية تتضمن كشف الكائنات وتمييزها في الصورة عن طريق رسم صندوق محيط حول كل كائن. - -- [Argoverse](../../datasets/detect/argoverse.md): مجموعة بيانات تحتوي على بيانات تتبع ثلاثية الأبعاد وتنبؤ الحركة من البيئات الحضرية مع توجيه البيانات بشكل جيد. -- [COCO](../../datasets/detect/coco.md): مجموعة بيانات كبيرة مصممة للكشف والتجزئة والتسمية تحتوي على أكثر من 200 ألف صورة معتمدة. -- [COCO8](../../datasets/detect/coco8.md): يحتوي على أول 4 صور من COCO التدريب و COCO val ، مناسب للاختبار السريع. -- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): مجموعة بيانات من صور رؤوس القمح جمعت من جميع أنحاء العالم لمهام الكشف والتحديد الموضعي. -- [Objects365](../../datasets/detect/objects365.md): مجموعة بيانات كبيرة وعالية الجودة لاكتشاف الكائنات بتصنيفات 365 وأكثر من 600 ألف صورة مرتبطة. -- [OpenImagesV7](../../datasets/detect/open-images-v7.md): مجموعة بيانات شاملة من جوجل تحتوي على 1.7 مليون صورة للتدريب و 42 ألف صورة للتحقق. -- [SKU-110K](../../datasets/detect/sku-110k.md): مجموعة بيانات تتضمن الكشف المكثف للكائنات في بيئات البيع بالتجزئة مع أكثر من 11 ألف صورة و 1.7 مليون صندوق بيانات محيط. -- [VisDrone](../../datasets/detect/visdrone.md): مجموعة بيانات تحتوي على كشف الكائنات ونماذج تعقب لأجسام متعددة من الصور الملتقطة بواسطة طائرات بدون طيار بأكثر من 10 ألف صورة وتسلسلات فيديو. -- [VOC](../../datasets/detect/voc.md): مجموعة بيانات Pascal Visual Object Classes (VOC) لكشف الكائنات والتجزئة بـ20 فئة من الكائنات وأكثر من 11 ألف صورة. -- [xView](../../datasets/detect/xview.md): مجموعة بيانات لكشف الكائنات في الصور الملتقطة من الأعلى بـ 60 فئة من الكائنات وأكثر من مليون كائن محدد ملحوظ. - -## [مجموعات بيانات التجزئة النمطية](../../datasets/segment/index.md) - -تعتبر التجزئة النمطية تقنية في الرؤية الحاسوبية تتطلب تحديد أجسام وتحديد مكانها في مستوى البكسل في الصورة. - -- [COCO](../../datasets/segment/coco.md): مجموعة بيانات كبيرة مصممة للكشف والتجزئة والتسمية تحتوي على أكثر من 200 ألف صورة معتمدة. -- [COCO8-seg](../../datasets/segment/coco8-seg.md): مجموعة بيانات أصغر لمهام التجزئة النمطية ، تحتوي على مجموعة فرعية من 8 صور COCO مع تسميات التجزئة. - -## [تقدير الركض](../../datasets/pose/index.md) - -تقدير الركض هو تقنية تُستخدم لتحديد وضع الكائن مقارنةً بالكاميرا أو نظام الإحداثيات العالمية. - -- [COCO](../../datasets/pose/coco.md): مجموعة بيانات كبيرة بتعليقات وضع الإنسان المصممة لمهام تقدير الركض. -- [COCO8-pose](../../datasets/pose/coco8-pose.md): مجموعة بيانات أصغر لمهام تقدير الركض ، تحتوي على مجموعة فرعية من 8 صور COCO مع تغييرات في وضع الإنسان. -- [تقدير الركض النمر](../../datasets/pose/tiger-pose.md): مجموعة بيانات مدمجة تتكون من 263 صورة مركزة على النمور ، مع 12 نقطة مرجعية لكل نمر لمهام تقدير الركض. - -## [التصنيف](../../datasets/classify/index.md) - -تصنيف الصورة هو مهمة في الرؤية الحاسوبية تتضمن تصنيف صورة في فئة أو أكثر محددة مسبقًا بناءً على محتواها البصري. - -- [كالتك 101](../../datasets/classify/caltech101.md): مجموعة بيانات تحتوي على صور لـ 101 فئة من الكائنات لمهام تصنيف الصور. -- [كالتك 256](../../datasets/classify/caltech256.md): نسخة موسعة من Caltech 101 بـ 256 فئة من الكائنات وصور أكثر تحديًا. -- [CIFAR-10](../../datasets/classify/cifar10.md): مجموعة بيانات تحتوي على 60 ألف صورة ملونة بحجم 32x32 بكسل في 10 فئات ، مع 6 آلاف صورة لكل فئة. -- [CIFAR-100](../../datasets/classify/cifar100.md): نسخة موسعة من CIFAR-10 بـ 100 فئة من الكائنات و 600 صورة لكل فئة. -- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): مجموعة بيانات تتكون من 70,000 صورة رمادية لـ 10 فئات من الملابس لمهام تصنيف الصور. -- [ImageNet](../../datasets/classify/imagenet.md): مجموعة بيانات بمقياس كبير لكشف الكائنات وتصنيف الصور بأكثر من 14 مليون صورة و 20,000 فئة. -- [ImageNet-10](../../datasets/classify/imagenet10.md): نسخة أصغر من ImageNet مع 10 فئات للاختبار والتجربة الأسرع. -- [Imagenette](../../datasets/classify/imagenette.md): مجموعة فرعية أصغر لـ ImageNet تحتوي على 10 فئات يمكن التمييز بينها بسهولة للتدريب والاختبار الأسرع. -- [Imagewoof](../../datasets/classify/imagewoof.md): نسخة أكثر تحديًا من ImageNet تحتوي على 10 فئات من فئات كلاب العنبر لمهام تصنيف الصور. -- [MNIST](../../datasets/classify/mnist.md): مجموعة بيانات تتكون من 70,000 صورة رمادية للأرقام المكتوبة يدويًا لمهام تصنيف الصور. - -## [صناديق الحدود الموجهة (OBB)](../../datasets/obb/index.md) - -صناديق الحدود الموجهة (OBB) هي طريقة في الرؤية الحاسوبية لاكتشاف الكائنات ذات زوايا في الصور باستخدام صناديق حدود مدورة تمت تدويرها ، وغالبًا ما يتم تطبيقها على صور الأقمار الصناعية والطائرات بدون طيار. - -- [DOTAv2](../../datasets/obb/dota-v2.md): مجموعة بيانات OBB الجوية الشهيرة بـ 1.7 مليون حالة و 11,268 صورة. - -## [تتبع الكائنات المتعددة](../../datasets/track/index.md) - -تعتبر تتبع الكائنات المتعددة تقنية في الرؤية الحاسوبية تتضمن كشف وتتبع عدة كائنات معًا عبر الزمن في سلسلة فيديو. - -- [Argoverse](../../datasets/detect/argoverse.md): مجموعة بيانات تحتوي على بيانات تتبع ثلاثية الأبعاد وتنبؤ الحركة من البيئات الحضرية مع توجيه البيانات بشكل جيد لمهام تتبع الكائنات المتعددة. -- [VisDrone](../../datasets/detect/visdrone.md): مجموعة بيانات تحتوي على كشف الكائنات ونماذج تتبع لأجسام متعددة من الصور الملتقطة بواسطة طائرات بدون طيار بأكثر من 10 ألف صورة وتسلسلات فيديو. - -## المساهمة في مجموعات بيانات جديدة - -تشمل المساهمة في مجموعة بيانات جديدة عدة خطوات لضمان توافقها مع البنية القائمة. فيما يلي الخطوات اللازمة: - -### الخطوات المطلوبة للمساهمة في مجموعة بيانات جديدة - -1. **جمع الصور**: اجمع الصور التي تنتمي إلى مجموعة البيانات. يمكن جمع هذه الصور من مصادر مختلفة مثل قواعد البيانات العامة أو مجموعتك الخاصة. - -2. **وضع تعليقات على الصور**: قم بإضافة تعليقات على هذه الصور مع صناديق الحدود أو الشرائح أو النقاط التي تعتمد على المهمة. - -3. **تصدير التعليقات**: قم بتحويل هذه التعليقات إلى تنسيق الملف `*.txt` `*.txt` المدعوم من Ultralytics. - -4. **تنظيم مجموعة البيانات**: قم بترتيب مجموعة البيانات الخاصة بك في البنية المجلدات الصحيحة. يجب أن تحتوي على مجلدات أعلى المستوى `train/` و `val/` ، وداخل كل منهما ، مجلدات فرعية للـ `images/` و `labels/`. - - ``` - dataset/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **إنشاء ملف `data.yaml`**: في المجلد الجذري لمجموعة البيانات الخاصة بك ، قم بإنشاء ملف `data.yaml` يصف المجموعة البيانات والفئات وغيرها من المعلومات الضرورية. - -6. **تحسين الصور (اختياري)**: إذا كنت ترغب في تقليل حجم مجموعة البيانات لمزيد من الكفاءة في المعالجة ، فيمكنك تحسين الصور باستخدام الكود أدناه. لا يلزم ذلك ، ولكنه موصى به لأحجام مجموعات البيانات الأصغر وسرعات التنزيل الأسرعة. - -7. **ضغط مجموعة البيانات**: قم بضغط مجلد مجموعة البيانات بالكامل وضعه في ملف zip. - -8. **الوثائق وإرسال طلب السحب (PR)**: قم بإنشاء صفحة وثائق تصف مجموعة البيانات الخاصة بك وكيف تتوافق مع الإطار القائم. بعد ذلك ، قدم طلب سحب (PR). راجع [مبادئ المساهمة في Ultralytics](https://docs.ultralytics.com/help/contributing) لمزيد من التفاصيل حول كيفية تقديم طلب السحب (PR). - -### كود مثال لتحسين وضغط مجموعة البيانات - -!!! Example "تحسين وضغط مجموعة البيانات" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # تعيين مسار مجلد مجموعة البيانات - path = Path('path/to/dataset') - - # تحسين الصور في مجموعة البيانات (اختياري) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # ضغط مجلد مجموعة البيانات في ملف زيب - zip_directory(path) - ``` - -باتباع هذه الخطوات ، يمكنك المساهمة في مجموعة بيانات جديدة تتكامل بشكل جيد مع البنية القائمة لـ Ultralytics. diff --git a/docs/ar/index.md b/docs/ar/index.md deleted file mode 100644 index fb4b4a7bd95..00000000000 --- a/docs/ar/index.md +++ /dev/null @@ -1,83 +0,0 @@ ---- -comments: true -description: استكشف دليل كامل لـ Ultralytics YOLOv8 ، نموذج كشف الكائنات وتجزئة الصور ذو السرعة العالية والدقة العالية. تثبيت المحررة ، والتنبؤ ، والتدريب والمزيد. -keywords: Ultralytics، YOLOv8، كشف الكائنات، تجزئة الصور، التعلم الآلي، التعلم العميق، الرؤية الحاسوبية، YOLOv8 installation، YOLOv8 prediction، YOLOv8 training، تاريخ YOLO، تراخيص YOLO ---- - -
-

- - Ultralytics YOLO banner -

- Ultralytics GitHub - space - Ultralytics LinkedIn - space - Ultralytics Twitter - space - Ultralytics YouTube - space - Ultralytics TikTok - space - Ultralytics Instagram - space - Ultralytics Discord -
-
- Ultralytics CI - Ultralytics Code Coverage - YOLOv8 Citation - Docker Pulls - Discord -
- Run on Gradient - Open In Colab - Open In Kaggle -
- -يتم تقديم [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics) ، أحدث إصدار من نموذج كشف الكائنات وتجزئة الصور المشهورة للوقت الفعلي. يعتمد YOLOv8 على التطورات المتقدمة في التعلم العميق والرؤية الحاسوبية ، ويقدم أداءً فائقًا من حيث السرعة والدقة. يجعل التصميم البسيط له مناسبًا لمختلف التطبيقات وقابلًا للتكيف بسهولة مع منصات الأجهزة المختلفة ، من الأجهزة الحافة إلى واجهات برمجة التطبيقات في السحابة. - -استكشف أدلة YOLOv8 ، وهي مورد شامل يهدف إلى مساعدتك في فهم واستخدام ميزاته وقدراته. سواء كنت ممارسًا في مجال التعلم الآلي من ذوي الخبرة أو جديدًا في هذا المجال ، فإن الهدف من هذا المركز هو تحقيق الحد الأقصى لإمكانات YOLOv8 في مشاريعك. - -!!! Note "ملاحظة" - - 🚧 تم تطوير وثائقنا متعددة اللغات حاليًا ، ونعمل بجد لتحسينها. شكراً لصبرك! 🙏 - -## من أين أبدأ - -- **تثبيت** `ultralytics` بواسطة pip والبدء في العمل في دقائق   [:material-clock-fast: ابدأ الآن](quickstart.md){ .md-button } -- **توقع** الصور ومقاطع الفيديو الجديدة بواسطة YOLOv8   [:octicons-image-16: توقع على الصور](modes/predict.md){ .md-button } -- **تدريب** نموذج YOLOv8 الجديد على مجموعة البيانات المخصصة الخاصة بك   [:fontawesome-solid-brain: قم بتدريب نموذج](modes/train.md){ .md-button } -- **استكشاف** مهام YOLOv8 مثل التجزئة والتصنيف والوضع والتتبع   [:material-magnify-expand: استكشاف المهام](tasks/index.md){ .md-button } - -

-
- -
- مشاهدة: كيفية تدريب نموذج YOLOv8 على مجموعة بيانات مخصصة في جوجل كولاب. -

- -## YOLO: نبذة تاريخية - -تم تطوير [YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once) ، نموذج شهير لكشف الكائنات وتجزئة الصور ، من قبل جوزيف ريدمون وعلي فرهادي في جامعة واشنطن. في عام 2015 ، حققت YOLO شهرة سريعة بفضل سرعتها العالية ودقتها. - -- [YOLOv2](https://arxiv.org/abs/1612.08242) ، الذي تم إصداره في عام 2016 ، قام بتحسين النموذج الأصلي من خلال دمج التطبيع التشغيلي ، ومربعات الربط ، ومجموعات الأبعاد. -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf) ، الذي تم إطلاقه في عام 2018 ، قدم تحسينات إضافية لأداء النموذج باستخدام شبكة ظهر أكثر كفاءة ومرشحات متعددة وتجميع هرم المساحة. -- تم إصدار [YOLOv4](https://arxiv.org/abs/2004.10934) في عام 2020 ، وقدم ابتكارات مثل زيادة المساعدات في البيانات ، ورأس جديد للكشف غير المرتبط بالمرابط ، ووظيفة فقدان جديدة. -- [YOLOv5](https://github.com/ultralytics/yolov5) قام بتحسين أداء النموذج وأضاف ميزات جديدة مثل تحسين ثوابت النموذج ، وتعقب التجارب المتكامل والتصدير التلقائي إلى تنسيقات التصدير الشهيرة. -- [YOLOv6](https://github.com/meituan/YOLOv6) تم تَوْزيعه على [Meituan](https://about.meituan.com/) في عام 2022 وهو قيد الاستخدام في العديد من روبوتات التسليم الذاتي للشركة. -- [YOLOv7](https://github.com/WongKinYiu/yolov7) أضاف مهمات إضافية مثل تقدير الوضع على مجموعة بيانات نقاط COCO الرئيسية. -- [YOLOv8](https://github.com/ultralytics/ultralytics) هو أحدث إصدار من YOLO بواسطة Ultralytics. باعتباره نموذجًا حديثًا وفريدًا من نوعه ، فإن YOLOv8 يبني على نجاح الإصدارات السابقة ، ويقدم ميزات وتحسينات جديدة لتحسين الأداء والمرونة والكفاءة. يدعم YOLOv8 مجموعة كاملة من مهام الذكاء الصناعي للرؤية ، بما في ذلك [الكشف](tasks/detect.md) ، [التجزئة](tasks/segment.md) ، [تقدير الوضع](tasks/pose.md) ، [التتبع](modes/track.md) ، و [التصنيف](tasks/classify.md). تتيح هذه القابلية للتكيف للمستخدمين استغلال قدرات YOLOv8 في تطبيقات ومجالات متنوعة. - -## تراخيص YOLO: كيف يتم ترخيص Ultralytics YOLO؟ - -يوفر Ultralytics خيارين للترخيص لاستيعاب الحالات الاستخدام المتنوعة: - -- **ترخيص AGPL-3.0**: هذا الترخيص مفتوح المصدر والمعتمد من [OSI](https://opensource.org/licenses/) وهو مثالي للطلاب والهواة ، ويشجع على التعاون المفتوح ومشاركة المعرفة. راجع ملف [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) لمزيد من التفاصيل. -- **ترخيص المؤسسة**: صمم للاستخدام التجاري ، يسمح هذا الترخيص بدمج سلس للبرمجيات ونماذج AI الخاصة بشركة Ultralytics في السلع والخدمات التجارية ، وتفادي متطلبات المصدر المفتوح لـ AGPL-3.0. إذا تشمل سيناريو الخاص بك تضمين حلولنا في عرض تجاري ، فيرجى التواصل من خلال [Ultralytics Licensing](https://ultralytics.com/license). - -تم تصميم استراتيجية الترخيص الخاصة بنا لضمان أن أي تحسينات على مشاريعنا مفتوحة المصدر يتم إرجاعها إلى المجتمع. نحمل مبادئ المصدر المفتوح قريبة من قلوبنا ❤️ ، ومهمتنا هي ضمان أن يمكن استخدام وتوسيع مساهماتنا بطرق تعود بالنفع على الجميع. diff --git a/docs/ar/models/fast-sam.md b/docs/ar/models/fast-sam.md deleted file mode 100644 index 68b39fcde28..00000000000 --- a/docs/ar/models/fast-sam.md +++ /dev/null @@ -1,191 +0,0 @@ ---- -comments: true -description: استكشف FastSAM ، وهو حلاً مبنيًا على الشبكات العصبية السريعة لتجزئة الكائنات في الوقت الحقيقي في الصور. تفاعل المستخدم المحسّن ، والكفاءة الحسابية ، والقابلية للتكيف في مهام الرؤية المختلفة. -keywords: FastSAM ، التعلم الآلي ، حلاً مبنيًا على الشبكات العصبية السريعة ، قسيمة الكائنات ، حلاً في الوقت الحقيقي ، Ultralytics ، مهام الرؤية ، معالجة الصور ، تطبيقات صناعية ، تفاعل المستخدم ---- - -# نموذج تجزئة أي شيء بسرعة عالية (FastSAM) - -نموذج تجزئة أي شيء بسرعة عالية (FastSAM) هو حلاً مبتكرًا للعصب الشبكي يعمل بالزمن الحقيقي لمهمة تجزئة أي كائن داخل صورة ما. تم تصميم هذه المهمة لتجزئة أي كائن داخل صورة بناءً على إشارات تفاعل المستخدم المختلفة الممكنة. يقلل الـ FastSAM من الاحتياجات الحسابية بشكل كبير مع الحفاظ على أداء تنافسي ، مما يجعله خيارًا عمليًا لمجموعة متنوعة من مهام الرؤية. - -![نظرة عامة على تصميم نموذج تجزئة أي شيء بسرعة عالية (FastSAM)](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## نظرة عامة - -تم تصميم FastSAM للتغلب على القيود الموجودة في [نموذج تجزئة ما شيء (SAM)](sam.md) ، وهو نموذج تحويل ثقيل يتطلب موارد حسابية كبيرة. يفصل FastSAM عملية تجزئة أي شيء إلى مرحلتين متسلسلتين: تجزئة جميع الأمثلة واختيار موجه بناءً على التعليمات. تستخدم المرحلة الأولى [YOLOv8-seg](../tasks/segment.md) لإنتاج قناع التجزئة لجميع الأمثلة في الصورة. في المرحلة الثانية ، يتم إخراج منطقة الاهتمام المتعلقة بالتعليمة. - -## المميزات الرئيسية - -1. **حلاً في الوقت الحقيقي**: من خلال استغلال كفاءة الشبكات العصبية الحاسوبية ، يوفر FastSAM حلاً في الوقت الحقيقي لمهمة تجزئة أي شيء ، مما يجعله قيمًا للتطبيقات الصناعية التي تتطلب نتائج سريعة. - -2. **كفاءة وأداء**: يقدم FastSAM تقليل كبير في الاحتياجات الحسابية واستخدام الموارد دون التنازل عن جودة الأداء. يحقق أداءً قابلاً للمقارنة مع SAM ولكن بموارد حسابية مخفضة بشكل كبير ، مما يمكن من تطبيقه في الوقت الحقيقي. - -3. **تجزئة يستند إلى الموجه**: يمكن لـ FastSAM تجزئة أي كائن داخل صورة ترشده مختلف إشارات تفاعل المستخدم الممكنة ، مما يوفر مرونة وقابلية للتكيف في سيناريوهات مختلفة. - -4. **يستند إلى YOLOv8-seg**: يستند FastSAM إلى [YOLOv8-seg](../tasks/segment.md) ، وهو كاشف كائنات مجهز بفرع تجزئة المثيلات. يمكنه بشكل فعال إنتاج قناع التجزئة لجميع الأمثلة في صورة. - -5. **نتائج تنافسية في الاختبارات التحضيرية**: في مهمة اقتراح الكائن على MS COCO ، يحقق FastSAM درجات عالية بسرعة أسرع بكثير من [SAM](sam.md) على بطاقة NVIDIA RTX 3090 واحدة ، مما يدل على كفاءته وقدرته. - -6. **تطبيقات عملية**: توفر الطريقة المقترحة حلاً جديدًا وعمليًا لعدد كبير من مهام الرؤية بسرعة عالية حقًا ، بمعدلات سرعة عشرات أو مئات المرات أسرع من الطرق الحالية. - -7. **جدوى ضغط النموذج**: يظهر FastSAM إمكانية تقليل الجهد الحسابي بشكل كبير من خلال إدخال سابق اصطناعي للهيكل ، مما يفتح إمكانيات جديدة لهندسة هيكل النموذج الكبير لمهام الرؤية العامة. - -## النماذج المتاحة ، المهام المدعومة ، وأوضاع التشغيل - -يعرض هذا الجدول النماذج المتاحة مع أوزانها المحددة ، والمهام التي تدعمها ، ومدى توافقها مع أوضاع التشغيل المختلفة مثل [الاستنتاج](../modes/predict.md) ، [التحقق](../modes/val.md) ، [التدريب](../modes/train.md) ، و[التصدير](../modes/export.md) ، مشار إليها برموز الـ✅ للأوضاع المدعومة والرموز ❌ للأوضاع غير المدعومة. - -| نوع النموذج | أوزان تم تدريبها مسبقًا | المهام المدعومة | الاستنتاج | التحقق | التدريب | التصدير | -|-------------|-------------------------|---------------------------------------|-----------|--------|---------|---------| -| FastSAM-s | `FastSAM-s.pt` | [تجزئة المثيلات](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [تجزئة المثيلات](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## أمثلة الاستخدام - -يسهل دمج نماذج FastSAM في تطبيقات Python الخاصة بك. يوفر Ultralytics واجهة برمجة تطبيقات Python سهلة الاستخدام وأوامر CLI لتسهيل التطوير. - -### استخدام التوقعات - -للقيام بكشف الكائنات في صورة ، استخدم طريقة `predict` كما هو موضح أدناه: - -!!! Example "مثال" - - === "بايثون" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # حدد مصدر التوقع - source = 'path/to/bus.jpg' - - # قم بإنشاء نموذج FastSAM - model = FastSAM('FastSAM-s.pt') # or FastSAM-x.pt - - # تنفيذ توقعات على صورة - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # قم بتجهيز كائن معالج مع قواعد التوقع - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # التوقع باستخدام كل شيء - ann = prompt_process.everything_prompt() - - # bbox الشكل الافتراضي [0،0،0،0] -> [x1،y1،x2،y2] - ann = prompt_process.box_prompt(bbox=[200، 200، 300، 300]) - - # التوقع النصي - ann = prompt_process.text_prompt(text='صورة لكلب') - - # التوقع النقطي - ann = prompt_process.point_prompt(points=[[200، 200]]، pointlabel=[1]) - prompt_process.plot(annotations=ann، output='./') - ``` - - === "CLI" - ```bash - # قم بتحميل نموذج FastSAM وتجزئة كل شيء به - yolo segment predict model=FastSAM-s.pt source=path/to/bus.jpg imgsz=640 - ``` - -توضح هذه المقاطع البساطة في تحميل نموذج مدرب مسبقًا وتنفيذ توقع على صورة. - -### استخدام مهام التحقق - -يمكن تنفيذ التحقق من النموذج على مجموعة بيانات على النحو التالي: - -!!! Example "مثال" - - === "بايثون" - ```python - from ultralytics import FastSAM - - # قم بإنشاء نموذج FastSAM - model = FastSAM('FastSAM-s.pt') # or FastSAM-x.pt - - # قم بتنفيذ التحقق من النموذج - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # قم بتحميل نموذج FastSAM وأجرِ التحقق منه بخصوص مجموعة البيانات مثال كوكو 8 بحجم صورة 640 - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -يرجى ملاحظة أن الـ FastSAM يدعم فقط الكشف والتجزئة لفئة واحدة من الكائن. هذا يعني أنه سيتعرف ويجزء جميع الكائنات على أنها نفس الفئة. لذلك ، عند إعداد مجموعة البيانات ، يجب تحويل جميع معرفات فئة الكائن إلى 0. - -## استخدام FastSAM الرسمي - -يتوفر نموذج FastSAM مباشرةً من مستودع [https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM). فيما يلي نظرة عامة موجزة على الخطوات التقليدية التي قد تتخذها لاستخدام FastSAM: - -### التثبيت - -1. استنسخ مستودع FastSAM: - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. أنشئ بيئة Conda وفعّلها بـ Python 3.9: - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. انتقل إلى المستودع المنسخ وقم بتثبيت الحزم المطلوبة: - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. قم بتثبيت نموذج CLIP: - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### مثال الاستخدام - -1. قم بتنزيل [تفويض نموذج](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing). - -2. استخدم FastSAM للتوقع. أمثلة الأوامر: - - - تجزئة كل شيء في صورة: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - تجزئة كائنات محددة باستخدام تعليمات النص: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "الكلب الأصفر" - ``` - - - تجزئة كائنات داخل مربع محدد (تقديم إحداثيات الصندوق في تنسيق xywh): - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - تجزئة كائنات قرب النقاط المحددة: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -بالإضافة إلى ذلك ، يمكنك تجربة FastSAM من خلال [Colab demo](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing) أو على [HuggingFace web demo](https://huggingface.co/spaces/An-619/FastSAM) لتجربة بصرية. - -## الاقتباسات والشكر - -نود أن نشكر أباء FastSAM على مساهماتهم الهامة في مجال تجزئة المثيلات في الوقت الحقيقي: - -!!! Quote "" - - === "بيب تيكس" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -يمكن العثور على ورقة FastSAM الأصلية على [arXiv](https://arxiv.org/abs/2306.12156). قام الأباء بجعل أعمالهم متاحة للجمهور ، ويمكن الوصول إلى قاعدة الكود على [GitHub](https://github.com/CASIA-IVA-Lab/FastSAM). نقدر جهودهم في تطوير المجال وجعل أعمالهم متاحة للمجتمع الأوسع. diff --git a/docs/ar/models/index.md b/docs/ar/models/index.md deleted file mode 100644 index a399f0df862..00000000000 --- a/docs/ar/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: استكشف مجموعة متنوعة من عائلة YOLO، ونماذج SAM وMobileSAM وFastSAM وYOLO-NAS وRT-DETR المدعومة من Ultralytics. ابدأ بأمثلة لكل من استخدام واجهة الأوامر وPython. -keywords: Ultralytics, documentation, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, models, architectures, Python, CLI ---- - -# النماذج المدعومة من Ultralytics - -أهلاً بك في وثائق نماذج Ultralytics! نحن نقدم الدعم لمجموعة واسعة من النماذج، كل منها مُصمم لمهام محددة مثل [الكشف عن الأجسام](../tasks/detect.md)، [تقطيع الحالات](../tasks/segment.md)، [تصنيف الصور](../tasks/classify.md)، [تقدير الوضعيات](../tasks/pose.md)، و[تتبع الأجسام المتعددة](../modes/track.md). إذا كنت مهتمًا بالمساهمة في هندسة نموذجك مع Ultralytics، راجع دليل [المساهمة](../../help/contributing.md). - -!!! Note "ملاحظة" - - 🚧 تحت الإنشاء: وثائقنا بلغات متعددة قيد الإنشاء حاليًا، ونحن نعمل بجد لتحسينها. شكرًا لصبرك! 🙏 - -## النماذج المميزة - -إليك بعض النماذج الرئيسية المدعومة: - -1. **[YOLOv3](yolov3.md)**: الإصدار الثالث من عائلة نموذج YOLO، الذي أنشأه أصلاً Joseph Redmon، والمعروف بقدراته الفعالة في الكشف عن الأجسام في الوقت الفعلي. -2. **[YOLOv4](yolov4.md)**: تحديث محلي لـ YOLOv3، تم إصداره بواسطة Alexey Bochkovskiy في 2020. -3. **[YOLOv5](yolov5.md)**: نسخة مُحسنة من هندسة YOLO من قبل Ultralytics، توفر أداءً أفضل وتوازن في السرعة مقارنة بالإصدارات السابقة. -4. **[YOLOv6](yolov6.md)**: أُصدرت بواسطة [Meituan](https://about.meituan.com/) في 2022، ويُستخدم في العديد من روبوتات التوصيل الذاتية للشركة. -5. **[YOLOv7](yolov7.md)**: تم إصدار نماذج YOLO المحدثة في 2022 بواسطة مؤلفي YOLOv4. -6. **[YOLOv8](yolov8.md) جديد 🚀**: الإصدار الأحدث من عائلة YOLO، يتميز بقدرات مُعززة مثل تقطيع الحالات، تقدير الوضعيات/النقاط الرئيسية، والتصنيف. -7. **[Segment Anything Model (SAM)](sam.md)**: نموذج Segment Anything Model (SAM) من Meta. -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**: نموذج MobileSAM للتطبيقات المحمولة، من جامعة Kyung Hee. -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**: نموذج FastSAM من مجموعة تحليل الصور والفيديو، والمعهد الصيني للأتمتة، وأكاديمية العلوم الصينية. -10. **[YOLO-NAS](yolo-nas.md)**: نماذج YOLO Neural Architecture Search (NAS). -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)**: نماذج Realtime Detection Transformer (RT-DETR) من PaddlePaddle التابعة لشركة Baidu. - -

-
- -
- شاهد: تشغيل نماذج YOLO من Ultralytics في بضعة أسطر من الكود فقط. -

- -## البدء في الاستخدام: أمثلة على الاستخدام - -يوفر هذا المثال أمثلة مبسطة على التدريب والاستدلال باستخدام YOLO. للحصول على الوثائق الكاملة عن هذه وغيرها من [الأوضاع](../modes/index.md), انظر صفحات وثائق [التنبؤ](../modes/predict.md)، و[التدريب](../modes/train.md)، و[التقييم](../modes/val.md) و[التصدير](../modes/export.md). - -لاحظ أن المثال أدناه هو لنماذج [Detect](../tasks/detect.md) YOLOv8 لكشف الأجسام. للاطلاع على المهام الإضافية المدعومة، راجع وثائق [Segment](../tasks/segment.md)، و[Classify](../tasks/classify.md) و[Pose](../tasks/pose.md). - -!!! Example "مثال" - - === "Python" - - نماذج `*.pt` المُدربة مسبقًا وملفات الإعداد `*.yaml` يمكن أن تُمرر إلى فئات `YOLO()`, `SAM()`, `NAS()` و `RTDETR()` لإنشاء مثال نموذج في Python: - - ```python - من ultralytics استيراد YOLO - - # تحميل نموذج YOLOv8n المُدرب مسبقًا على COCO - النموذج = YOLO('yolov8n.pt') - - # عرض معلومات النموذج (اختياري) - model.info() - - # تدريب النموذج على مجموعة البيانات المثالية COCO8 لمدة 100 عصر - النتائج = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # تشغيل الاستدلال بنموذج YOLOv8n على صورة 'bus.jpg' - النتائج = model('path/to/bus.jpg') - ``` - - === "CLI" - - الأوامر CLI متاحة لتشغيل النماذج مباشرة: - - ```bash - # تحميل نموذج YOLOv8n المُدرب مسبقًا على COCO وتدريبه على مجموعة البيانات المثالية COCO8 لمدة 100 عصر - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # تحميل نموذج YOLOv8n المُدرب مسبقًا على COCO وتشغيل الاستدلال على صورة 'bus.jpg' - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## المساهمة بنماذج جديدة - -هل أنت مهتم بالمساهمة بنموذجك في Ultralytics؟ رائع! نحن دائمًا منفتحون على توسيع محفظة النماذج لدينا. - -1. **احفظ نسخة عن المستودع**: ابدأ بحفظ نسخة عن [مستودع Ultralytics على GitHub](https://github.com/ultralytics/ultralytics). - -2. **استنسخ نسختك**: انسخ نسختك إلى جهازك المحلي وأنشئ فرعًا جديدًا للعمل عليه. - -3. **طبق نموذجك**: أضف نموذجك متبعًا معايير وإرشادات البرمجة الموفرة في دليل [المساهمة](../../help/contributing.md) لدينا. - -4. **اختبر بدقة**: تأكد من اختبار نموذجك بشكل مكثف، سواء بشكل منفصل أو كجزء من المسار البرمجي. - -5. **أنشئ Pull Request**: بمجرد أن تكون راضًيا عن نموذجك، قم بإنشاء طلب سحب إلى المستودع الرئيسي للمراجعة. - -6. **مراجعة الكود والدمج**: بعد المراجعة، إذا كان نموذجك يلبي معاييرنا، سيتم دمجه في المستودع الرئيسي. - -للخطوات التفصيلية، يرجى الرجوع إلى دليل [المساهمة](../../help/contributing.md). diff --git a/docs/ar/models/mobile-sam.md b/docs/ar/models/mobile-sam.md deleted file mode 100644 index ec671da1b55..00000000000 --- a/docs/ar/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: تعرّف على MobileSAM وتطبيقه، وقارنه مع SAM الأصلي، وكيفية تنزيله واختباره في إطار Ultralytics. قم بتحسين تطبيقاتك المحمولة اليوم. -keywords: MobileSAM، Ultralytics، SAM، التطبيقات المحمولة، Arxiv، GPU، API، مُشفّر الصورة، فك تشفير القناع، تنزيل النموذج، طريقة الاختبار ---- - -![شعار MobileSAM](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# التمييز المحمول لأي شيء (MobileSAM) - -الآن يمكنك الاطّلاع على ورقة MobileSAM في [arXiv](https://arxiv.org/pdf/2306.14289.pdf). - -يمكن الوصول إلى عرض مباشر لـ MobileSAM يعمل على وحدة المعالجة المركزية CPU من [هنا](https://huggingface.co/spaces/dhkim2810/MobileSAM). يستغرق الأداء على وحدة المعالجة المركزية Mac i5 تقريبًا 3 ثوانٍ. في عرض الواجهة التفاعلية الخاص بهنغ فيس، تؤدي واجهة المستخدم ووحدات المعالجة المركزية ذات الأداء المنخفض إلى استجابة أبطأ، لكنها تواصل العمل بفعالية. - -تم تنفيذ MobileSAM في عدة مشاريع بما في ذلك [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything) و [AnyLabeling](https://github.com/vietanhdev/anylabeling) و [Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D). - -تم تدريب MobileSAM على وحدة المعالجة الرسومية (GPU) الواحدة باستخدام مجموعة بيانات تحتوي على 100000 صورة (1% من الصور الأصلية) في أقل من يوم واحد. سيتم توفير الشفرة المصدرية لعملية التدريب هذه في المستقبل. - -## النماذج المتاحة، المهام المدعومة، وأوضاع التشغيل - -يُعرض في هذا الجدول النماذج المتاحة مع وزنها المدرب مسبقًا، والمهام التي تدعمها، وتوافقها مع أوضاع التشغيل المختلفة مثل [الاستدلال](../modes/predict.md)، [التحقق](../modes/val.md)، [التدريب](../modes/train.md)، و [التصدير](../modes/export.md)، حيث يُشير إيموجي ✅ للأوضاع المدعومة وإيموجي ❌ للأوضاع غير المدعومة. - -| نوع النموذج | الأوزان المدربة مسبقًا | المهام المدعومة | الاستدلال | التحقق | التدريب | التصدير | -|-------------|------------------------|--------------------------------------|-----------|--------|---------|---------| -| MobileSAM | `mobile_sam.pt` | [تجزئة العناصر](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## التحويل من SAM إلى MobileSAM - -نظرًا لأن MobileSAM يحتفظ بنفس سير العمل لـ SAM الأصلي، قمنا بدمج التجهيزات المسبقة والتجهيزات اللاحقة للنموذج الأصلي وجميع الواجهات الأخرى. نتيجة لذلك، يمكن لأولئك الذين يستخدمون حاليًا SAM الأصلي الانتقال إلى MobileSAM بقدر أدنى من الجهد. - -يؤدي MobileSAM بشكل مقارب لـ SAM الأصلي ويحتفظ بنفس سير العمل باستثناء تغيير في مُشفر الصورة. على وحدة المعالجة الرسومية (GPU) الواحدة، يعمل MobileSAM بمعدل 12 مللي ثانية لكل صورة: 8 مللي ثانية لمُشفر الصورة و4 مللي ثانية لفك تشفير القناع. - -يوفر الجدول التالي مقارنة بين مُشفرات الصور القائمة على ViT: - -| مُشفّر الصورة | SAM الأصلي | MobileSAM | -|---------------|----------------|--------------| -| العوامل | 611 مليون | 5 مليون | -| السرعة | 452 مللي ثانية | 8 مللي ثانية | - -يستخدم SَM الأصلي و MobileSAM نفس فك تشفير القناع الذي يعتمد على التوجيه بواسطة الرموز: - -| فك تشفير القناع | SAM الأصلي | MobileSAM | -|-----------------|--------------|--------------| -| العوامل | 3.876 مليون | 3.876 مليون | -| السرعة | 4 مللي ثانية | 4 مللي ثانية | - -فيما يلي مقارنة لكامل سير العمل: - -| السير الكامل (التشفير+الفك) | SAM الأصلي | MobileSAM | -|-----------------------------|----------------|---------------| -| العوامل | 615 مليون | 9.66 مليون | -| السرعة | 456 مللي ثانية | 12 مللي ثانية | - -يتم عرض أداء MobileSAM و SAM الأصلي باستخدام كل من النقطة ومربع كلمة المحفز. - -![صورة بالنقطة ككلمة محفز](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![صورة بالمربع ككلمة محفز](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -بفضل أدائه المتفوق، يكون MobileSAM أصغر بحوالي 5 أضعاف وأسرع بحوالي 7 أضعاف من FastSAM الحالي. يتوفر مزيد من التفاصيل على [صفحة مشروع MobileSAM](https://github.com/ChaoningZhang/MobileSAM). - -## اختبار MobileSAM في Ultralytics - -مثل SAM الأصلي، نقدم طريقة اختبار مبسّطة في Ultralytics، بما في ذلك وضعي النقطة والصندوق. - -### تنزيل النموذج - -يمكنك تنزيل النموذج [هنا](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt). - -### النقطة ككلمة محفز - -!!! Example "مثال" - - === "Python" - ```python - from ultralytics import SAM - - # تحميل النموذج - model = SAM('mobile_sam.pt') - - # توقع جزء بناءً على نقطة محفز - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### الصندوق ككلمة محفز - -!!! Example "مثال" - - === "Python" - ```python - from ultralytics import SAM - - # تحميل النموذج - model = SAM('mobile_sam.pt') - - # توقع جزء بناءً على صندوق محفز - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -لقد قمنا بتنفيذ "MobileSAM" و "SAM" باستخدام نفس API. لمزيد من معلومات الاستخدام، يُرجى الاطّلاع على [صفحة SAM](sam.md). - -## الاقتباس والشكر - -إذا وجدت MobileSAM مفيدًا في أبحاثك أو عملك التطويري، يُرجى النظر في استشهاد ورقتنا: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/ar/models/rtdetr.md b/docs/ar/models/rtdetr.md deleted file mode 100644 index f60d049839e..00000000000 --- a/docs/ar/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: اكتشف ميزات وفوائد RT-DETR من Baidu، وهو كاشف كائنات فعال وقابل للتكيف في الوقت الفعلي يعتمد على Vision Transformers، بما في ذلك النماذج المدربة مسبقًا. -keywords: RT-DETR, Baidu, Vision Transformers, كشف كائنات, أداء فوري, CUDA, TensorRT, اختيار الاستعلام المرتبط بـ IoU, Ultralytics, واجهة برمجة التطبيقات الخاصة بلغة Python, PaddlePaddle ---- - -# RT-DETR من Baidu: اكتشاف كائنات في الوقت الفعلي يعتمد على Vision Transformer - -## النظرة العامة - -Real-Time Detection Transformer (RT-DETR)، المطور من قبل Baidu، هو كاشف حديث الطراز يوفر أداءً فعليًا في الوقت الفعلي مع الحفاظ على دقة عالية. يستفيد من قوة Vision Transformers (ViT) في معالجة الميزات متعددة المقياس عن طريق فصل التفاعلات داخل المقياس ودمج التفاعلات بين المقاييس المختلفة. يتكيف RT-DETR بشكل كبير ويدعم ضبط سرعة الاستعلام باستخدام طبقات مختلفة في المفكرة بدون إعادة التدريب. يتفوق هذا النموذج على العديد من كاشفات الكائنات في الوقت الفعلي الأخرى، ويستفيد من المنصات القوية مثل CUDA مع TensorRT. - -![نموذج مثال](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**نظرة عامة على RT-DETR من Baidu.** يعرض مخطط معمارية نموذج RT-DETR مراحل الظهر الثلاث الأخيرة {S3، S4، S5} كإدخال للمشفر. يحول المشفر الهجين الفعال الميزات متعددة المقياس إلى تسلسل من ميزات الصورة من خلال تفاعل الميزات داخل المقياس (AIFI) ووحدة دمج الميزات بين المقاييس المختلفة (CCFM). يتم استخدام اختيار الاستعلام المرتبط بـ IoU لاختيار عدد ثابت من ميزات الصورة لتكون استعلامات الكائن الأولية لفك الترميز. أخيرًا، يحسن فك الترميز مع رؤوس التنبؤ الإضافية الاستعلامات الكائنية لتوليد المربعات وتقييمات الثقة ([المصدر](https://arxiv.org/pdf/2304.08069.pdf)). - -### الميزات الرئيسية - -- **مشفر هجين فعال:** يستخدم RT-DETR من Baidu مشفر هجين فعال يعمل على معالجة الميزات متعددة المقياس من خلال فصل التفاعلات داخل المقياس ودمج التفاعلات بين المقاييس المختلفة. يقلل هذا التصميم الفريد القائم على Vision Transformers من تكاليف الحسابات ويتيح الكشف عن الكائنات في الوقت الفعلي. -- **اختيار الاستعلام المرتبط بـ IoU:** يعمل RT-DETR من Baidu على تحسين بدء استعلام الكائنات من خلال استخدام اختيار الاستعلام المرتبط بـ IoU. يتيح هذا للنموذج التركيز على الكائنات الأكثر صلة في السيناريو، مما يعزز دقة الكشف. -- **سرعة الاستنتاج قابلة للتكيف:** يدعم RT-DETR من Baidu ضبط سرعة الاستنتاج بشكل مرن باستخدام طبقات مختلفة في المفكرة دون الحاجة لإعادة التدريب. يسهل هذا التكيف التطبيق العملي في العديد من سيناريوهات كشف الكائنات في الوقت الفعلي. - -## النماذج المدربة مسبقًا - -تقدم واجهة برمجة التطبيقات الخاصة بلغة Python في Ultralytics نماذج PaddlePaddle RT-DETR مدربة مسبقًا بمقاييس مختلفة: - -- RT-DETR-L: 53.0% AP على COCO val2017، 114 FPS على GPU T4 -- RT-DETR-X: 54.8% AP على COCO val2017، 74 FPS على GPU T4 - -## أمثلة الاستخدام - -يوفر هذا المثال أمثلة بسيطة لتدريب واختبار RT-DETRR. للحصول على وثائق كاملة حول هذه الأمثلة وأوضاع أخرى [انقر هنا](../modes/index.md) للاطلاع على صفحات الوثائق [التنبؤ](../modes/predict.md)، [التدريب](../modes/train.md)، [التصحيح](../modes/val.md) و [التصدير](../modes/export.md). - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import RTDETR - - # تحميل نموذج RT-DETR-l محمي بواسطة COCO مسبقًا - model = RTDETR('rtdetr-l.pt') - - # عرض معلومات النموذج (اختياري) - model.info() - - # تدريب النموذج على مجموعة بيانات المثال COCO8 لـ 100 دورة - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # تشغيل الاستدلال باستخدام النموذج RT-DETR-l على صورة 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # تحميل نموذج RT-DETR-l محمي بواسطة COCO مسبقًا وتدريبه على مجموعة بيانات المثال COCO8 لـ 100 دورة - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # تحميل نموذج RT-DETR-l محمي بواسطة COCO مسبقًا وتشغيل الاستدلال على صورة 'bus.jpg' - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## المهام والأوضاع المدعومة - -يقدم هذا الجدول أنواع النماذج والأوزان المدربة مسبقًا المحددة والمهام المدعومة بواسطة كل نموذج، والأوضاع المختلفة ([التدريب](../modes/train.md)، [التصحيح](../modes/val.md)، [التنبؤ](../modes/predict.md)، [التصدير](../modes/export.md)) التي يتم دعمها، ممثلة برموز الـ ✅. - -| نوع النموذج | الأوزان المدربة مسبقًا | المهام المدعومة | استنتاج | تحقق صحة | تدريب | استيراد | -|-----------------------|------------------------|----------------------------------|---------|----------|-------|---------| -| RT-DETR الكبير | `rtdetr-l.pt` | [كشف كائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR الكبير الزائد | `rtdetr-x.pt` | [كشف كائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## الاستشهادات والتقديرات - -إذا استخدمت RT-DETR من Baidu في أعمال البحث أو التطوير الخاصة بك، يرجى الاستشهاد بـ [الورقة الأصلية](https://arxiv.org/abs/2304.08069): - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -نحن نود أن نعرب عن امتناننا لـ Baidu وفريق [PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection) لإنشاء وصيانة هذ المورد القيم لمجتمع الرؤية الحاسوبية. نقدر تفاعلهم مع المجال من خلال تطوير كاشف الكائنات الحقيقي في الوقت الفعلي القائم على Vision Transformers، RT-DETR. - -*keywords: RT-DETR، الناقل، Vision Transformers، Baidu RT-DETR، PaddlePaddle، Paddle Paddle RT-DETR، كشف كائنات في الوقت الفعلي، كشف كائنات قائم على Vision Transformers، نماذج PaddlePaddle RT-DETR مدربة مسبقًا، استخدام Baidu's RT-DETR، واجهة برمجة التطبيقات الخاصة بلغة Python في Ultralytics* diff --git a/docs/ar/models/sam.md b/docs/ar/models/sam.md deleted file mode 100644 index b47d5ec6b5f..00000000000 --- a/docs/ar/models/sam.md +++ /dev/null @@ -1,225 +0,0 @@ ---- -comments: true -description: استكشف النموذج القاطع للشيء أيا كان (SAM) الحديث من Ultralytics الذي يتيح الت segment تشفير صور الوقت الحقيقي. تعرف على مرونته في مجال الت segment، وأداء نقل انيفورم زيرو شوت، وكيفية استخدامه. -keywords: Ultralytics, قسيمة الصور, Segment Anything Model, SAM, سلسلة بيانات SA-1B, مرونة الصور في الوقت الحقيقي, نقل الانيفورم زيرو شوت, الكشف عن الكائنات, تحليل الصور, التعلم الآلي ---- - -# نموذج القطعة شيء ما (SAM) - -مرحبًا بك في الجبهة الأولى لقطع الصور مع نموذج القطعة شيء ما ، أو SAM. هذا النموذج الثوري قد غير اللعبة من خلال إدخال التشفير القراءة للصور مع أداء في الوقت الحقيقي، وتحديد معايير جديدة في هذا المجال. - -## مقدمة إلى SAM: القطعة شيء ما نموذج - -نموذج القطعة شيء ما ، أو SAM، هو نموذج شفاف اول في فصل الصور الرقمية التي تتيح قدرة شهير على التشفير، توفر مرونة فريدة من نوعها في مهام التحليل اللازمة للصور. نموذج SAM هو أساس مشروع 'أي شيء في شيء' الابتكاري و هو مشروع يقدم نموذجا جديدا ، مهمة وسلسلة بيانات مبتكرة للفصل البصري. - -يتيح تصميم SAM المتقدم له التكيف مع توزيعات صور جديدة ومهام جديدة دون الحاجة إلى معرفة مسبقة، وهذه الميزة تعرف بالكفاءة المطلوبة. حيث يتم تدريبه على سلسلة البيانات الواسعة [سلسلة SA-1B](https://ai.facebook.com/datasets/segment-anything/)، التي تحتوي على أكثر من ملياري قناع معروض على 11 مليون صورة تمت المحافظة عليها بعناية، وقد عرض SAM أداء مثير للإعجاب مع نقل انيفورم زيرو شوت فاق النتائج المراقبة السابقة بالتدريب الكامل في العديد من الحالات. - -![صورة مثالية لسلسة البيانات](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -صور مثالية مع قناع محاط بها من سلسلة البيانات التي قدمناها حديثًا ، SA-1B. يحتوي سلسلة SA-1B على 11 مليون صورة متنوعة ، عالية الدقة ، مرخصة وتحمي الخصوصية و 1.1 مليار قناع فصل جودة عالية. تم توجيه هذه القناع تمامًا بتقويم آلي من قبل SAM وتم التحقق من جودتها وتنوعها من خلال تصنيفات بشرية وتجارب عديدة. يتم تجميع الصور حسب عدد الأقنعة في كل صورة للتصوير (هناك حوالي 100 قناع في الصورة في المتوسط). - -## السمات الرئيسية لنموذج القطعة شيء ما (SAM) - -- **مهمة التشفير القضائية:** تم تصميم SAM بهدف مهمة التشفير القابلة للتشفير ، مما يتيح له إنشاء قناع تشفير صالح من أي تلميح معين ، مثل الدلائل المكانية أو النصية التي تحدد الكائن. -- **بنية متقدمة:** يستخدم نموذج القطعة شيء ما مُشفر صورة قوي ، مشفر تشفير ومُشفر بسهولة الويغورة. تمكن هذه البنية الفريدة من فتح المجال للتشفير المرن ، وحساب القناع في الوقت الحقيقي ، والاستعداد للغموض في مهام التشفير. -- **سلسلة البيانات SA-1B:** التي قدمها مشروع أي شيء في شيء، تعرض سلسلة البيانات SA-1B أكثر من ملياري قناع على 11 مليون صورة. كأكبر سلسلة بيانات للفصل حتى الآن، توفر نموذج SAM مصدر تدريب ضخم ومتنوع. -- **أداء نقل الانيفورم زيرو شوت:** يعرض نموذج SAM أداء رائع في نقل الانيفورم زيرو شوت في مهام القطع المختلفة، مما يجعله أداة قوية جاهزة للاستخدام في تطبيقات متنوعة مع حاجة قليلة جدًا لهندسة التشفير الخاصة. - -للحصول على نظرة شاملة على نموذج القطعة شيء ما وسلسلة SA-1B، يرجى زيارة [موقع أي شيء في شيء](https://segment-anything.com) واطلع على بحث [أي شيء في شيء](https://arxiv.org/abs/2304.02643). - -## النماذج المتاحة والمهام المدعومة ووضعيات العمل - -تقدم هذه الجدول النماذج المتاحة مع أوزان محددة مسبقًا والمهام التي يدعمونها وتوافقهم مع وضعيات العمل المختلفة مثل [قراءة الصورة](../modes/predict.md)، [التحقق](../modes/val.md)، [التدريب](../modes/train.md)، و [التصدير](../modes/export.md) ، مما يشير إلى ✅ رموز الدعم و ❌ للوضعيات غير المدعومة. - -| نوع النموذج | الأوزان المدربة مسبقًا | المهام المدعومة | قراءة الصورة | التحقق | التدريب | التصدير | -|-------------|------------------------|------------------------------------|--------------|--------|---------|---------| -| SAM الأساسي | `sam_b.pt` | [تجزئة النسخ](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| SAM الكبير | `sam_l.pt` | [تجزئة النسخ](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## كيفية استخدام SAM: مرونة وقوة في تجزئة الصورة - -يمكن استخدام نموذج القطعة شيء من أجل العديد من المهام التابعة إلى تدريبه. يشمل ذلك الكشف عن الحافة، إنشاء ترشيح للكائنات، تجزئة نسخة وتوقع نص مبدئي للتشفير. مع التشفير المهني ، يمكن لـ SAM التكيف بسرعة مع المهمات وتوزيعات البيانات الجديدة بطريقة transfer zero-shot، وبالتالي يعتبر أداة متعددة الاستخدامات وفعالة لجميع احتياجات تجزئة الصورة. - -### مثال لدمج SAM - -!!! Example "القسم بالاشارات" - - تقسيم الصورة مع الإشارات المعطاة. - - === "البايثون" - - ```python - from ultralytics import SAM - - # تحميل النموذج - model = SAM('sam_b.pt') - - # عرض معلومات النموذج (اختياري) - model.info() - - # تشغيل التنبوء بواسطة الدلائل - model('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # تشغيل التنبوء بواسطة نقاط الإشارة - model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "قطع كل الشيء" - - قم بتجزئة الصورة بأكملها. - - === "البايثون" - - ```python - from ultralytics import SAM - - # تحميل النموذج - model = SAM('sam_b.pt') - - # عرض معلومات النموذج (اختياري) - model.info() - - # تشغيل التنبوء - model('مسار/إلى/صورة.jpg') - ``` - - === "صفيحة" - - ```البايش - # تشغيل التنبوء بنموذج SAM - yolo predict model=sam_b.pt source=path/to/image.jpg - ``` - -- المنطق هنا هو تجزئة الصورة كلها إذا لم تمر عبر أي إشارات (bboxes/ points / masks). - -!!! Example "مثال على SAMPredictor" - - بواسطة هذا الطريق ، يمكنك تعيين الصورة مرة واحدة وتشغيل الإشارات مرارًا وتكرارًا دون تشغيل مشفر الصورة مرة أخرى. - - === "التنبؤ بالإشارة" - - ```البايثون - from ultralytics.models.sam import Predictor as SAMPredictor - - # إنشاء SAMPredictor - الأعلى = dict (الثقة = 0.25، task ='segment'، النمط = 'تنبؤ'، imgsz = 1024، نموذج = "mobile_sam.pt") - predictor = SAMPredictor (overrides = التجاوز الأعلى) - - # تعيين الصورة - predictor.set_image("ultralytics/assets/zidane.jpg") # تعيين بواسطة ملف صورة - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # تعيين مع np.ndarray - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # إعادة تعيين الصورة - predictor.reset_image() - ``` - - قطع كل شيء مع وجود معطيات اختيارية. - - === "تقطيع كل شيء" - - ```البايثون - from ultralytics.models.sam import Predictor as SAMPredictor - - # إنشاء SAMPredictor - الأعلى = dict (الثقة = 0.25، task ='segment'، النمط = 'تنبؤ'، imgsz = 1024، نموذج = "mobile_sam.pt") - predictor = SAMPredictor (overrides = التجاوز الأعلى) - - # تجزئة مع بيانات إضافية - results = predictor(source="ultralytics/assets/zidane.jpg"، crop_n_layers=1، points_stride=64) - ``` - -- المزيد args إضافي للتقطيع كل شيء شاهد التوثيق مرجع [`السلبي/تقديم` مرجع](../../../reference/models/sam/predict.md). - -## مقارنة SAM مقابل YOLOv8 - -في هذا المكان نقارن نموذج SAM الأصغر سام، SAM-b ، مع نموذج التجزئة YOLOv8 الصغيرة Ultralytics، [YOLOv8n-seg](../tasks/segment.md): - -| النموذج | الحجم | المعلمات | السرعة (المعالج) | -|----------------------------------------------|----------------------------|-----------------------|--------------------------| -| سام SAM-b | 358 م.بايت | 94.7 M | 51096 ms/im | -| [MobileSAM](mobile-sam.md) | 40.7 MB | 10.1 M | 46122 ms/im | -| [FastSAM-s](fast-sam.md) with YOLOv8 حافظة | 23.7 MB | 11.8 M | 115 ms/im | -| [YOLOv8n-seg](../tasks/segment.md) ل Ultraly | **6.7 MB** (53.4 مرة أصغر) | **3.4 M** (27.9x أقل) | **59 ms/im** (866x أسرع) | - -هذه المقارنة تظهر الاختلافات في أمر المقدار والسرعة بين النماذج. في حين يقدم SAM قدرات فريدة للتجزئة التلقائية ، إلا أنه ليس منافسًا مباشرًا لنماذج التجزئة YOLOv8 ، حيث تكون أصغر وأسرع وأكثر كفاءة. - -اكتنزات التجريب على ماكينة Apple M2 Macbook 2023 مع 16GB من الذاكرة. لإعادة إنتاج هذا الاختبار: - -!!! Example "مثال" - - === "البايثون" - ```البايثون - from ultralytics import FastSAM, SAM, YOLO - - # تحليل يام-b - model = SAM('sam_b.pt') - model.info() - model('ultralytics/assets') - - # تحليل MobileSAM - model = SAM('mobile_sam.pt') - model.info() - model('ultralytics/assets') - - # تحليل FastSAM-s - model = FastSAM('FastSAM-s.pt') - model.info() - model('ultralytics/assets') - - # تحليل YOLOv8n-seg - model = YOLO('yolov8n-seg.pt') - model.info() - model('ultralytics/assets') - ``` - -## تعلم تلقائي: مسار سريع إلى سلاسل البيانات الخاصة بالتجزئة - -التعلم التلقائي هو ميزة رئيسية لـ SAM، حيث يسمح للمستخدمين بإنشاء [سلاسل بيانات تجزئة](https://docs.ultralytics.com/datasets/segment) باستخدام نموذج الكشف الجاهز. يتيح هذا الميزة إنشاء وتحديث سريع ودقيق لعدد كبير من الصور بدون الحاجة إلى عملية التسمية اليدوية البطيئة. - -### إنشاء سلاسل البيانات الخاصة بالتجزئة باستخدام نموذج الكشف - -للتعليم التلقائي لسلاسل البيانات الخاصة بالتجزئة باستخدام إطار العمل Ultralytics ، استخدم وظيفة 'auto_annotate' كما هو موضح أدناه: - -!!! Example "مثال" - - === "البايثون" - ```البايثون - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="مسار/إلى/صور", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| الوسيطة | النوع | الوصف | الافتراضي | -|------------|------------------------|---------------------------------------------------------------------------------------------------------------------------|--------------| -| البيانات | سلسلة | المسار إلى المجلد الذي يحتوي على الصور التي سيتم الإشارة إليها. | | -| det_model | سلسلة، اختياري | نموذج الكشف المدرب المسبق لـ YOLO. الافتراضي هو 'yolov8x.pt'. | 'yolov8x.pt' | -| sam_model | سلسلة، اختياري | نموذج القطعة أيا شيء من Ultralytics. الافتراضي هو 'sam_b.pt'. | 'sam_b.pt' | -| device | سلسلة، اختياري | الجهاز الذي يتم تشغيل النماذج عليه. الافتراضي هو سلسلة فارغة (وحدة المعالجة المركزية أو وحدة معالجة الرسومات إذا توافرت). | | -| output_dir | سلسلة، لا شيء، اختياري | الدليل لحفظ النتائج المرئية. الافتراضي هو مجلد 'التسميات' في نفس دليل 'البيانات'. | لا شيء | - -يأخذ تابع 'auto_annotate' المسار إلى الصور الخاصة بك مع وسيطات اختيارية لتحديد نموذج الكشف المدرب مسبقًا ونموذج التجزئة SAM والجهاز الذي سيتم تشغيل النماذج به والدليل الخروج لحفظ النتائج المرئية. - -تعلم تلقائيًا باستخدام نماذج مدربة مسبقًا يمكن أن يقلل بشكل كبير من الوقت والجهد المطلوب لإنشاء سلاسل بيانات تجزئة عالية الجودة. يكون هذا الأمر مفيدًا خصوصًا للباحثين والمطورين الذين يتعاملون مع مجموعات صور كبيرة ، حيث يتيح لهم التركيز على تطوير النماذج وتقييمها بدلاً من التسمية اليدوية البطيئة. - -## الاقتباسات والتقديرات - -إذا وجدت SAM مفيدًا في البحث أو العمل التطويري الخاص بك ، يرجى النظر في استشهاد بحثنا: - -!!! Quote "" - - === "البيبتيكس" - ```البيبتيكس - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -نود أن نعبر عن امتناننا لـ Meta AI لإنشاء وصيانة هذا المورد القيم لمجتمع البصريات الحواسيبية. - -*أكلمات دالة: سلسلة المفعولة, نموذج القطعة شيء ما, SAM, Meta SAM, التجزئة, التشفير المميز, آلة آي, segment, Ultralytics, نماذج مدربة مسبقا, SAM الاساسي, SAM الكبير, تجزئة الكيانات, الرؤية الكمبيوترية, آي الاصطناعية, التعلم الآلي, تسمية بيانات, قناع التجزئة, نموذج الكشف, نموذج الكشف YOLO, البيبتكس, Meta AI.* diff --git a/docs/ar/models/yolo-nas.md b/docs/ar/models/yolo-nas.md deleted file mode 100644 index 5cffdbe120e..00000000000 --- a/docs/ar/models/yolo-nas.md +++ /dev/null @@ -1,121 +0,0 @@ ---- -comments: true -description: استكشف التوثيق المفصل لـ YOLO-NAS ، وهو نموذج كشف الكائنات المتطور. تعلم المزيد عن ميزاته والطرز المدربة مسبقًا واستخدامه مع واجهة برمجة Ultralytics Python وأكثر من ذلك. -keywords: YOLO-NAS, Deci AI, كشف الكائنات, deep learning, البحث في الهندسة العصبية, واجهة برمجة Ultralytics Python, نموذج YOLO, الطرز المدربة مسبقًا, كمّية, التحسين, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## نظرة عامة - -تم تطوير YOLO-NAS بواسطة ديسي ايه اي ، وهو نموذج استشعار الكائنات الطائرة للأمام الذي يقدم تطورًا مبتكرًا. إنه منتج تكنولوجيا بحث الهندسة العصبية المتقدمة ، المصممة بعناية لمعالجة القيود التي كانت تعاني منها النماذج السابقة YOLO. مع تحسينات كبيرة في دعم التمثيل الكموني وتنازلات الدقة والتأخير ، يمثل YOLO-NAS قفزة كبيرة في كشف الكائنات. - -![نموذج صورة مثال](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**نظرة عامة على YOLO-NAS.** يستخدم YOLO-NAS كتلًا تفاعلية للتمثيل الكموني وتمثيل كمي للحصول على أداء مثلى. يواجه النموذج ، عند تحويله إلى الإصدار المكون من 8 بت ، انخفاضًا طفيفًا في الدقة ، وهو تحسين كبير على النماذج الأخرى. تتوج هذه التطورات بتصميم متفوق ذي قدرات استشعار للكائنات لا مثيل لها وأداء متميز. - -### المزايا الرئيسية - -- **كتلة أساسية ودية للتمثيل الكموني:** يقدم YOLO-NAS كتلة أساسية جديدة ودية للتمثيل الكموني ، مما يعالج أحد القيود الرئيسية للنماذج السابقة YOLO. -- **تدريب متطور وتمثيل كمي:** يستخدم YOLO-NAS نظم تدريب متقدمة وتمثيلًا للكم بعد التدريب لتعزيز الأداء. -- **تحسين AutoNAC والتدريب المسبق:** يستخدم YOLO-NAS تحسين AutoNAC ويتم تدريبه مسبقًا على مجموعات بيانات بارزة مثل COCO و Objects365 و Roboflow 100. يجعل هذا التدريب المسبق مناسبًا لمهام استشعار الكائنات الفرعية في بيئات الإنتاج. - -## الطرز المدربة مسبقًا - -استمتع بقوة كشف الكائنات من الجيل القادم مع الطرز المدربة مسبقًا لـ YOLO-NAS التي يوفرها Ultralytics. تم تصميم هذه الطرز لتقديم أداء متفوق من حيث السرعة والدقة. اختر من بين مجموعة متنوعة من الخيارات المصممة وفقًا لاحتياجاتك الخاصة: - -| الطراز | مؤشر التقدير المتوسط (mAP) | تأخر الوقت (ms) | -|------------------|----------------------------|-----------------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -تم تصميم كل نسخة من النموذج لتقديم توازن بين متوسط الدقة (mAP) وتأخير الوقت ، مما يساعدك في تحسين مهام كشف الكائنات الخاصة بك من حيث الأداء والسرعة. - -## أمثلة الاستخدام - -قام Ultralytics بجعل طرز YOLO-NAS سهلة الدمج في تطبيقات Python الخاصة بك عبر حزمة `ultralytics` الخاصة بنا. توفر الحزمة واجهة برمجة التطبيقات بسيطة الاستخدام لتسهيل العملية. - -توضح الأمثلة التالية كيفية استخدام طرز YOLO-NAS مع حزمة `ultralytics` للكشف والتحقق: - -### أمثلة الكشف والتحقق - -في هذا المثال ، نقوم بالتحقق من صحة YOLO-NAS-s على مجموعة بيانات COCO8. - -!!! Example "مثال" - - يوفر هذا المثال رمز بسيط لعملية الكشف والتحقق لـ YOLO-NAS. لمعالجة نتائج الاستدلال ، انظر وضع [توقع](../modes/predict.md). لاستخدام YOLO-NAS مع وضعيات إضافية ، انظر [توصيف](../modes/val.md) و[تصدير](../modes/export.md). لا يدعم نظام YOLO-NAS على حزمة `ultralytics` عملية التدريب. - - === "Python" - - يمكن تمرير نماذج PyTorch المدربة مسبقًا `*.pt` إلى فئة `NAS()` لإنشاء نموذج في Python: - - ```python - from ultralytics import NAS - - # تحميل نموذج YOLO-NAS-s المدرب مسبقًا على COCO - model = NAS('yolo_nas_s.pt') - - # عرض معلومات النموذج (اختياري) - model.info() - - # التحقق من صحة النموذج على مجموعة بيانات مثال COCO8 - results = model.val(data='coco8.yaml') - - # تشغيل استدلال باستخدام نموذج YOLO-NAS-s على صورة 'bus.jpg' - results = model('path/to/bus.jpg')) - ``` - - === "CLI" - - تتوفر أوامر CLI لتشغيل النماذج مباشرة: - - ```bash - # تحميل نموذج YOLO-NAS-s المدرب مسبقًا على COCO والتحقق من أدائه على مجموعة بيانات مثال COCO8 - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # تحميل نموذج YOLO-NAS-s المدرب مسبقًا على COCO والتنبؤ بالاستدلال على صورة 'bus.jpg' - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## المهام والأوضاع المدعومة - -نحن نقدم ثلاثة أنواع من نماذج YOLO-NAS: الصغير (s) ، المتوسط (m) ، والكبير (l). يتم تصميم كل نسخة لتلبية احتياجات الحوسبة والأداء المختلفة: - -- **YOLO-NAS-s**: محسنة للبيئات التي تكون فيها الموارد الحسابية محدودة والكفاءة هي الأهم. -- **YOLO-NAS-m**: يقدم نهجًا متوازنًا ، مناسبًا لكشف الكائنات العامة بدقة أعلى. -- **YOLO-NAS-l**: مصممة للسيناريوهات التي تتطلب أعلى درجة من الدقة ، حيث الموارد الحسابية أقل قيدًا. - -أدناه نظرة عامة مفصلة عن كل نموذج ، بما في ذلك روابط أوزانهم المدربين مسبقًا ، والمهام التي يدعمونها ، وتوافقهم مع وضعيات التشغيل المختلفة. - -| نوع النموذج | أوزان مدربة مسبقًا | المهام المدعومة | الاستدلال | التحقق | التدريب | التصدير | -|-------------|-----------------------------------------------------------------------------------------------|------------------------------------|-----------|--------|---------|---------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [كشف الكائنات](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [كشف الكائنات](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [كشف الكائنات](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## الاقتباسات والشكر - -إذا استخدمت YOLO-NAS في أعمالك البحثية أو التطويرية ، يرجى الاستشهاد بمشروع SuperGradients: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -نعبر عن امتناننا لفريق [SuperGradients](https://github.com/Deci-AI/super-gradients/) في Deci AI لجهودهم في إنشاء وصيانة هذة الموارد القيمة لمجتمع رؤية الحاسوب. نعتقد أن YOLO-NAS ، بتصميمه المبتكر وقدرته الاستشعار المتفوقة للكائنات ، سيصبح أداة حاسمة للمطورين والباحثين على حد سواء. - -*keywords: YOLO-NAS, Deci AI, كشف الكائنات, deep learning, البحث في الهندسة العصبية, واجهة برمجة Ultralytics Python, نموذج YOLO, SuperGradients, الطرز المدربة مسبقًا, كتلة أساسية ودية للتمثيل الكموني, أنظمة تدريب متطورة, تمثيل كمي بعد التدريب, تحسين AutoNAC, COCO, Objects365, Roboflow 100* diff --git a/docs/ar/models/yolov3.md b/docs/ar/models/yolov3.md deleted file mode 100644 index d34e91519f6..00000000000 --- a/docs/ar/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: احصل على نظرة عامة حول YOLOv3 و YOLOv3-Ultralytics و YOLOv3u. تعرف على ميزاتها الرئيسية واستخدامها والمهام المدعومة للكشف عن الكائنات. -keywords: YOLOv3، YOLOv3-Ultralytics، YOLOv3u، الكشف عن الكائنات، إجراء، التدريب، Ultralytics ---- - -# YOLOv3 و YOLOv3-Ultralytics و YOLOv3u - -## النظرة العامة - -يقدم هذا الوثيقة نظرة عامة على ثلاث نماذج مرتبطة بكشف الكائنات ، وهي [YOLOv3](https://pjreddie.com/darknet/yolo/) و [YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3) و [YOLOv3u](https://github.com/ultralytics/ultralytics). - -1. **YOLOv3:** هذه هي الإصدار الثالث من خوارزمية You Only Look Once (YOLO) للكشف عن الكائنات. قام جوزيف ريدمون بتطويرها بالأصل ، وقد قامت YOLOv3 بتحسين سابقيها من خلال إدخال ميزات مثل التنبؤات متعددة المقياس وثلاثة أحجام مختلفة من نوى الكشف. - -2. **YOLOv3-Ultralytics:** هذه هي تنفيذ Ultralytics لنموذج YOLOv3. يقوم بإعادة إنتاج بنية YOLOv3 الأصلية ويقدم وظائف إضافية ، مثل دعم المزيد من النماذج المدربة مسبقًا وخيارات تخصيص أسهل. - -3. **YOLOv3u:** هذا هو الإصدار المُحدّث لـ YOLOv3-Ultralytics الذي يدمج رأس الكشف بدون مشتركات وبدون مستخدم الكائن الذي يستخدم في نماذج YOLOv8. يحتفظ YOLOv3u بنفس بنية العمود الفقري والعنق مثل YOLOv3 ولكن برأس الكشف المُحدث من YOLOv8. - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## الميزات الرئيسية - -- **YOLOv3:** قدم استخدام ثلاث مقياسات مختلفة للكشف ، باستخدام ثلاثة أحجام مختلفة من نوى الكشف: 13x13 ، 26x26 و 52x52. هذا يحسن بشكل كبير دقة الكشف للكائنات ذات الأحجام المختلفة. بالإضافة إلى ذلك ، أضاف YOLOv3 ميزات مثل التنبؤات متعددة العلامات لكل مربع محاذاة وشبكة استخراج سمات أفضل. - -- **YOLOv3-Ultralytics:** توفر تنفيذ Ultralytics لـ YOLOv3 نفس الأداء مثل النموذج الأصلي ولكنه يأتي مع دعم إضافي للمزيد من النماذج المدربة مسبقًا وطرق تدريب إضافية وخيارات أسهل للتخصيص. هذا يجعلها أكثر مرونة وسهولة استخداماً للتطبيقات العملية. - -- **YOLOv3u:** يدمج هذا النموذج المُحدّث رأس الكشف بدون مشتركات وبدون مستخدم الكائن من YOLOv8. من خلال إزالة الحاجة إلى صناديق المرجع المحددة مسبقًا ودرجات تكون الكائن ، يمكن أن يحسن تصميم رأس الكشف هذا قدرة النموذج على كشف الكائنات ذات الأحجام والأشكال المتنوعة. هذا يجعل YOLOv3u أكثر مرونة ودقة لمهام كشف الكائنات. - -## المهام المدعومة والأوضاع - -تم تصميم سلسلة YOLOv3 ، بما في ذلك YOLOv3 و YOLOv3-Ultralytics و YOLOv3u ، خصيصًا لمهام الكشف عن الكائنات. يشتهر هذه النماذج بفعاليتها في سيناريوهات العالم الحقيقي المختلفة ، مع توازن دقة الكشف والسرعة. يوفر كل طراز ميزات وتحسينات فريدة ، مما يجعلها مناسبة لمجموعة متنوعة من التطبيقات. - -يدعم النماذج الثلاثة وضعًا شاملاً من الأوضاع ، مما يضمن مرونة في مراحل مختلفة من نموذج النشر والتطوير. هذه الأوضاع تشمل [التمييز](../modes/predict.md) ، [التحقق](../modes/val.md) ، [التدريب](../modes/train.md) و [التصدير](../modes/export.md) ، مما يوفر للمستخدمين مجموعة كاملة من أدوات فعالة للكشف عن الكائنات. - -| نوع النموذج | المهام المدعومة | التمييز | التحقق | التدريب | التصدير | -|--------------------|------------------------------------|---------|--------|---------|---------| -| YOLOv3 | [كشف الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [كشف الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [كشف الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -توفر هذه الجدولة نظرة فورية على إمكانات كل نسخة من YOLOv3 ، مما يسلط الضوء على مرونتها وملاءمتها لمختلف المهام وأوضاع العمل العملية في سير العمل لكشف الكائنات. - -## أمثلة الاستخدام - -يقدم هذا المثال أمثلة بسيطة للتدريب والتنبؤ باستخدام YOLOv3. للحصول على وثائق كاملة حول هذه وغيرها من [الأوضاع](../modes/index.md) انظر صفحات الوثائق: [التنبؤ](../modes/predict.md) ، (../modes/train.md) [Val](../modes/val.md) و [التصدير](../modes/export.md) docs. - -!!! Example "مثال" - - === "بيثون" - - يمكن تمرير نماذج PyTorch المدربة مسبقًا `*.pt` وملفات التكوين `*.yaml` إلى فئة `YOLO()` لإنشاء نموذج في Python: - - ```python - من ultralytics استيراد YOLO - - # تحميل نموذج YOLOv3n المدرب مسبقًا على COCO - model = YOLO('yolov3n.pt') - - # عرض معلومات النموذج (اختياري) - model.info() - - # تدريب النموذج على مجموعة البيانات المثالية Coco8 لمدة 100 دورة تدريب - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # قم بتشغيل التنبؤ باستخدام نموذج YOLOv3n على صورة 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - تتوفر أوامر CLI لتشغيل النماذج مباشرة: - - ```bash - # تحميل نموذج YOLOv3n المدرب مسبقًا على COCO وقم بتدريبه على مجموعة البيانات المثالية Coco8 لمدة 100 دورة تدريب - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # تحميل نموذج YOLOv3n المدرب مسبقًا على COCO وتشغيل التنبؤ على صورة 'bus.jpg' - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## الاقتباسات والشكر - -إذا قمت باستخدام YOLOv3 في بحثك ، فيرجى الاقتباس لأوراق YOLO الأصلية ومستودع Ultralytics YOLOv3: - -!!! Quote "" - - === "بيب تيكس" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -شكراً لجوزيف ريدمون وعلي فرهادي على تطوير YOLOv3 الأصلي. diff --git a/docs/ar/models/yolov4.md b/docs/ar/models/yolov4.md deleted file mode 100644 index 1cf50689fb4..00000000000 --- a/docs/ar/models/yolov4.md +++ /dev/null @@ -1,72 +0,0 @@ ---- -comments: true -description: استكشف دليلنا التفصيلي على YOLOv4 ، وهو جهاز كشف الكائنات الحديثة في الوقت الحقيقي. فهم أبرز معالم التصميم المعماري الخاصة به ، والميزات المبتكرة ، وأمثلة التطبيق. -keywords: ultralytics ، yolo v4 ، كشف الكائنات ، شبكة عصبية ، كشف في الوقت الحقيقي ، كاشف الكائنات ، تعلم الآلة - ---- - -# YOLOv4: الكشف العالي السرعة والدقة للكائنات - -أهلاً بك في صفحة وثائق Ultralytics لـ YOLOv4 ، جهاز كشف الكائنات الحديث في الوقت الحقيقي الذي تم إطلاقه في عام 2020 من قبل Alexey Bochkovskiy على [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). تم تصميم YOLOv4 لتوفير التوازن المثالي بين السرعة والدقة ، مما يجعله خيارًا ممتازًا للعديد من التطبيقات. - -![رسم توضيحي لهندسة YOLOv4](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**رسم توضيحي لهندسة YOLOv4**. يعرض التصميم المعماري المعقد لشبكة YOLOv4 ، بما في ذلك المكونات الرئيسية والرقبة والرأس ، والطبقات المترابطة للكشف الفعال في الوقت الحقيقي. - -## مقدمة - -تعني YOLOv4 "فقط تنظر مرة واحدة النسخة 4". هو نموذج كشف الكائنات الحقيقي الزمني الذي تم تطويره لمعالجة قيود الإصدارات السابقة لـ YOLO مثل [YOLOv3](yolov3.md) ونماذج كشف الكائنات الأخرى. على عكس كاشفات الكائنات الأخرى القائمة على الشبكات العصبية المتزاحمة المستخدمة للكشف عن الكائنات ، يمكن تطبيق YOLOv4 لأنظمة الوصية النصحية وكذلك لإدارة العملية المستقلة وتقليل الإدخالات البشرية. يتيح تشغيله على وحدات معالجة الرسومات القياسية (GPUs) الاستخدام الشامل بتكلفة معقولة ، وتم تصميمه للعمل في الوقت الفعلي على وحدة معالجة الرسومات التقليدية مع الحاجة إلى وحدة واحدة فقط من هذا النوع للتدريب. - -## الهندسة - -تستغل YOLOv4 العديد من الميزات المبتكرة التي تعمل معًا لتحسين أدائها. تشمل هذه الميزات الاتصالات المتبقية المرجحة (WRC) ، والاتصالات الجزئية عبر المرحلة المتقاطعة (CSP) ، والتطبيع المتقاطع المصغر لدُفع (CmBN) ، والتدريب المتنازع لنفسه (SAT) ، وتنشيط Mish ، وزيادة بيانات الزخم ، وتنظيم DropBlock ، وخسارة CIoU. يتم دمج هذه الميزات لتحقيق أحدث النتائج. - -يتألف كاشف الكائنات النموذجي من عدة أجزاء بما في ذلك المدخل والظهر والرقبة والرأس. يتم تدريب الظهرية لـ YOLOv4 سلفًا على ImageNet ويستخدم لتوقع فئات ومربعات محيطة للكائنات. يمكن أن يكون الظهرية من عدة نماذج بما في ذلك VGG و ResNet و ResNeXt أو DenseNet. يتم استخدام جزء الرقبة من الكاشف لجمع خرائط الميزات من مراحل مختلفة وعادة ما يتضمن عدة مسارات لأسفل وعدة مسارات للأعلى. جزء الرأس هو ما يستخدم لإجراء اكتشاف الكائنات والتصنيف النهائي. - -## الحقيبة المجانية - -يستخدم YOLOv4 أيضًا طرقًا تعرف باسم "حقيبة المجانيات" وهي تقنيات تحسِّن دقة النموذج أثناء التدريب دون زيادة تكلفة الاستنتاج. تعد التعديلات في البيانات تقنية شائعة في كشف الكائنات ، والتي تزيد من تنوع صور الإدخال لتحسين قوة الموديل. بعض أمثلة التعديل في البيانات تشمل التشويهات البصرية (ضبط السطوع والتباين والدرجة والتشبع والضوضاء في الصورة) والتشويهات الهندسية (إضافة توزيع عشوائي للتغيير المقياسي والاقتصاص والانعكاس والتدوير). تساعد هذه التقنيات الموديل في التعميم على أنواع مختلفة من الصور. - -## الميزات والأداء - -تم تصميم YOLOv4 لتحقيق سرعة ودقة مثلى في كشف الكائنات. يتضمن تصميم YOLOv4 CSPDarknet53 كظهر ، PANet كرقبة ، و YOLOv3 كرأس كشف. يسمح هذا التصميم لـ YOLOv4 بأداء كشف الكائنات بسرعة مذهلة ، مما يجعله مناسبًا لتطبيقات الوقت الحقيقي. يتفوق YOLOv4 أيضًا في الدقة ، ويحقق نتائج عالية في مقاييس كشف الكائنات. - -## أمثلة الاستخدام - -في وقت كتابة هذا النص ، لا يدعم Ultralytics حاليًا نماذج YOLOv4. لذلك ، سيحتاج أي مستخدمين مهتمين باستخدام YOLOv4 إلى الرجوع مباشرة إلى مستودع YOLOv4 على GitHub للحصول على تعليمات التثبيت والاستخدام. - -إليك نظرة عامة موجزة على الخطوات النموذجية التي يمكن أن تتخذها لاستخدام YOLOv4: - -1. قم بزيارة مستودع YOLOv4 على GitHub: [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). - -2. اتبع التعليمات المقدمة في ملف README لعملية التثبيت. ينطوي هذا عادة على استنساخ المستودع ، وتثبيت التبعيات اللازمة ، وإعداد أي متغيرات بيئة ضرورية. - -3. بمجرد الانتهاء من التثبيت ، يمكنك تدريب واستخدام النموذج وفقًا لتعليمات الاستخدام المقدمة في المستودع. يتضمن ذلك عادة إعداد مجموعة البيانات الخاصة بك ، وتكوين معاملات النموذج ، وتدريب النموذج ، ثم استخدام النموذج المدرب لأداء اكتشاف الكائنات. - -يرجى ملاحظة أن الخطوات النموذجية قد تختلف اعتمادًا على حالة الاستخدام الخاصة بك وحالة مستودع YOLOv4 الحالي. لذلك ، يُنصح بشدة بالرجوع مباشرة إلى التعليمات المقدمة في مستودع YOLOv4 على GitHub. - -نؤسف على أي إزعاج ، وسنسعى لتحديث هذا المستند بأمثلة استخدام لـ Ultralytics بمجرد تنفيذ الدعم لـ YOLOv4. - -## الاستنتاج - -YOLOv4 هو نموذج قوي وفعال لكشف الكائنات يجمع بين السرعة والدقة. يستخدم الميزات الفريدة وتقنيات الزخم في التدريب للأداء بشكل ممتاز في مهام اكتشاف الكائنات في الوقت الفعلي. يمكن لأي شخص يمتلك وحدة معالجة رسومية تقليدية تدريب YOLOv4 واستخدامها ، مما يجعلها سهلة الوصول وعملية لمجموعة واسعة من التطبيقات. - -## التنويه والتقديرات - -نود أن نعترف بمساهمة أصحاب YOLOv4 في مجال كشف الكائنات الحقيقية الزمنية: - -!!! Quote "" - - === "بيب تكس" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -يمكن العثور على ورقة YOLOv4 الأصلية على [arXiv](https://arxiv.org/abs/2004.10934). قام المؤلفون بتوفير عملهم بشكل عام ، ويمكن الوصول إلى قاعدة الشفرات على [GitHub](https://github.com/AlexeyAB/darknet). نقدر جهودهم في تعزيز الميدان وتوفير عملهم للمجتمع العريض. diff --git a/docs/ar/models/yolov5.md b/docs/ar/models/yolov5.md deleted file mode 100644 index c922faa60c6..00000000000 --- a/docs/ar/models/yolov5.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: اكتشف YOLOv5u، وهو إصدار معزز لنموذج YOLOv5 يوفر توازنًا محسنًا بين الدقة والسرعة والعديد من النماذج المدربة مسبقًا لمهام كشف الكائنات المختلفة. -keywords: YOLOv5u، كشف الكائنات، النماذج المدربة مسبقًا، Ultralytics، التشخيص، التحقق، YOLOv5، YOLOv8، بدون قاعدة تثبيت العقدة الرئيسية، بدون قيمة الكائن، التطبيقات الفعلية، تعلم الآلة ---- - -# YOLOv5 - -## نظرة عامة - -يمثل YOLOv5u تقدمًا في منهجيات كشف الكائنات. يندرج YOLOv5u تحت البنية المعمارية الأساسية لنموذج [YOLOv5](https://github.com/ultralytics/yolov5) الذي طورته شركة Ultralytics، و يدمج نموذج YOLOv5u ميزة القسمة على جزئين للكائنات المستقلة عن القاعدة التي تم تقديمها في نماذج [YOLOv8](yolov8.md). تحسين هذا النمط يحسن نمط النموذج، مما يؤدي إلى تحسين التوازن بين الدقة والسرعة في مهام كشف الكائنات. بناءً على النتائج التجريبية والمزايا المشتقة منها، يقدم YOLOv5u بديلاً فعالًا لأولئك الذين يسعون لإيجاد حلول قوية في الأبحاث والتطبيقات العملية. - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## المزايا الرئيسية - -- **رأس Ultralytics للقسمة بدون قاعدة تثبيت العقدة:** يعتمد نماذج كشف الكائنات التقليدية على صناديق قاعدة محددة مسبقًا لتوقع مواقع الكائنات. ومع ذلك، يحدث تحديث في نهج YOLOv5u هذا. من خلال اعتماد رأس Ultralytics المُقسم بدون قاعدة تثبيت العقدة، يضمن هذا النمط آلية كشف أكثر مرونة واندفاعًا، مما يعزز الأداء في سيناريوهات متنوعة. - -- **توازن محسن بين الدقة والسرعة:** تتصارع السرعة والدقة في العديد من الأحيان. ولكن YOLOv5u يتحدى هذا التوازن. يقدم توازنًا معايرًا، ويضمن كشفًا في الوقت الفعلي دون المساومة على الدقة. تعد هذه الميزة ذات قيمة خاصة للتطبيقات التي تتطلب استجابة سريعة، مثل المركبات المستقلة والروبوتات وتحليل الفيديو في الوقت الفعلي. - -- **مجموعة متنوعة من النماذج المدربة مسبقًا:** على فهم الأمور التي تحتاج إلى مجموعات أدوات مختلفة YOLOv5u يوفر العديد من النماذج المدربة مسبقًا. سواء كنت تركز على التشخيص أو التحقق أو التدريب، هناك نموذج مصمم خصيصًا ينتظرك. يضمن هذا التنوع أنك لا تستخدم حلاً من نوع واحد يناسب الجميع، ولكن نموذج موازن حسب حاجتك الفريدة. - -## المهام والأوضاع المدعومة - -تتفوق نماذج YOLOv5u، مع مجموعة متنوعة من الأوزان المدربة مسبقًا، في مهام [كشف الكائنات](../tasks/detect.md). تدعم هذه النماذج مجموعة شاملة من الأوضاع، مما يجعلها مناسبة لتطبيقات متنوعة، من التطوير إلى التنفيذ. - -| نوع النموذج | الأوزان المدربة مسبقًا | المهمة | التشخيص | التحقق | التدريب | التصدير | -|-------------|-----------------------------------------------------------------------------------------------------------------------------|------------------------------------|---------|--------|---------|---------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [كشف الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -يوفر هذا الجدول نظرة عامة مفصلة عن البدائل من نماذج نموذج YOLOv5u، ويسلط الضوء على تطبيقاتها في مهام كشف الكائنات ودعمها لأوضاع تشغيل متنوعة مثل [التشخيص](../modes/predict.md)، [التحقق](../modes/val.md)، [التدريب](../modes/train.md)، و[التصدير](../modes/export.md). يضمن هذا الدعم الشامل أن يمكن للمستخدمين استغلال قدرات نماذج YOLOv5u بشكل كامل في مجموعة واسعة من سيناريوهات كشف الكائنات. - -## الأداء - -!!! الأداء - - === "كشف" - - راجع [وثائق الكشف](https://docs.ultralytics.com/tasks/detect/) للحصول على أمثلة استخدام مع هذه النماذج المدربة على [COCO](https://docs.ultralytics.com/datasets/detect/coco/)، التي تشمل 80 فئة مدربة مسبقًا. - - | النموذج | يامل | حجم
(بكسل) | mAPval
50-95 | سرعة
معالج الجهاز ONNX
(مللي ثانية) | سرعة
حويصلة A100 TensorRT
(مللي ثانية) | المعلمات
(مليون) | FLOPs
(بليون) | - |---------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|-----------------------|----------------------|--------------------------------|-------------------------------------|--------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43.0 | 120.7 | 1.27 | 9.1 | 24.0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49.0 | 233.9 | 1.86 | 25.1 | 64.2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52.2 | 408.4 | 2.50 | 53.2 | 135.0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53.2 | 763.2 | 3.81 | 97.2 | 246.4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42.1 | 211.0 | 1.83 | 4.3 | 7.8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48.6 | 422.6 | 2.34 | 15.3 | 24.6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53.6 | 810.9 | 4.36 | 41.2 | 65.7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55.7 | 1470.9 | 5.47 | 86.1 | 137.4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56.8 | 2436.5 | 8.98 | 155.4 | 250.7 | - -## أمثلة للاستخدام - -يقدم هذا المثال أمثلة بسيطة للغاية للتدريب والتشخيص باستخدام YOLOv5. يُمكن إنشاء نموذج مثيل في البرمجة باستخدام نماذج PyTorch المدربة مسبقًا في صيغة `*.pt` وملفات التكوين `*.yaml`: - -```python -from ultralytics import YOLO - -# قم بتحميل نموذج YOLOv5n المدرب مسبقًا على مجموعة بيانات COCO -model = YOLO('yolov5n.pt') - -# قم بعرض معلومات النموذج (اختياري) -model.info() - -# قم بتدريب النموذج على مجموعة البيانات COCO8 لمدة 100 دورة -results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - -# قم بتشغيل التشخيص بنموذج YOLOv5n على صورة 'bus.jpg' -results = model('path/to/bus.jpg') -``` - -=== "سطر الأوامر" - - يتاح سطر الأوامر لتشغيل النماذج مباشرة: - - ```bash - # قم بتحميل نموذج YOLOv5n المدرب مسبقًا على مجموعة بيانات COCO8 وقم بتدريبه لمدة 100 دورة - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # قم بتحميل نموذج YOLOv5n المدرب مسبقًا على مجموعة بيانات COCO8 وتشغيل حالة التشخيص على صورة 'bus.jpg' - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## الاستشهادات والتقدير - -إذا قمت باستخدام YOLOv5 أو YOLOv5u في بحثك، يرجى استشهاد نموذج Ultralytics YOLOv5 بطريقة الاقتباس التالية: - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -يرجى ملاحظة أن نماذج YOLOv5 متاحة بترخيص [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) و[Enterprise](https://ultralytics.com/license). diff --git a/docs/ar/models/yolov6.md b/docs/ar/models/yolov6.md deleted file mode 100644 index 12dd557216d..00000000000 --- a/docs/ar/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: استكشف نموذج Meituan YOLOv6 للكشف عن الكائنات الحديثة، والذي يوفر توازنًا مذهلاً بين السرعة والدقة، مما يجعله الخيار الأمثل لتطبيقات الوقت الحقيقي. تعرّف على الميزات والنماذج المُدربة مسبقًا واستخدام Python. -keywords: Meituan YOLOv6، الكشف عن الكائنات، Ultralytics، YOLOv6 docs، Bi-directional Concatenation، تدريب بمساعدة العناصر، النماذج المدربة مسبقا، تطبيقات الوقت الحقيقي ---- - -# Meituan YOLOv6 - -## نظرة عامة - -[Meituan](https://about.meituan.com/) YOLOv6 هو منظّف الكائنات الحديثة الحديثة الذي يُقدم توازنًا ملحوظًا بين السرعة والدقة، مما يجعله خيارًا شائعًا لتطبيقات الوقت الحقيقي. يُقدم هذا النموذج العديد من التحسينات الملحوظة في بنيته ونظام التدريب، بما في ذلك تطبيق وحدة Bi-directional Concatenation (BiC)، واستراتيجية AAT (anchor-aided training) التي تعتمد على العناصر، وتصميم محسّن للأساس والرقبة لتحقيق أداء على مجموعة بيانات COCO يفوق جميع النماذج الأخرى. - -![Meituan YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![Model example image](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**نظرة عامة على YOLOv6.** مخطط بنية النموذج يوضح المكونات المعاد تصميمها واستراتيجيات التدريب التي أدت إلى تحسينات أداء كبيرة. (أ) الرقبة الخاصة بـ YOLOv6 (N و S معروضان). لاحظ أنه بالنسبة لم/n، يتم استبدال RepBlocks بـ CSPStackRep. (ب) هيكل وحدة BiC. (ج) مكون SimCSPSPPF. ([المصدر](https://arxiv.org/pdf/2301.05586.pdf)). - -### ميزات رئيسية - -- **وحدة Bi-directional Concatenation (BiC):** يقدم YOLOv6 وحدة BiC في الرقبة التابعة للكاشف، مما يعزز إشارات التحديد المحلية ويؤدي إلى زيادة الأداء دون التأثير على السرعة. -- **استراتيجية التدريب بمساعدة العناصر (AAT):** يقدم هذا النموذج استراتيجية AAT للاستفادة من فوائد النماذج المستندة إلى العناصر وغير المستندة إليها دون التضحية في كفاءة الاستدلال. -- **تصميم أساس ورقبة محسّن:** من خلال تعميق YOLOv6 لتشمل مرحلة أخرى في الأساس والرقبة، يحقق هذا النموذج أداءً يفوق جميع النماذج الأخرى على مجموعة بيانات COCO لإدخال عالي الدقة. -- **استراتيجية الاستنباط الذاتي:** يتم تنفيذ استراتيجية استنتاج ذاتي جديدة لتعزيز أداء النماذج الصغيرة من YOLOv6، وذلك عن طريق تعزيز فرع الانحدار المساعد خلال التدريب وإزالته في الاستنتاج لتجنب انخفاض السرعة الواضح. - -## معايير الأداء - -يوفر YOLOv6 مجموعة متنوعة من النماذج المدرّبة مسبقًا بمقاييس مختلفة: - -- YOLOv6-N: ٣٧.٥٪ AP في COCO val2017 عندما يتم استخدام بطاقة NVIDIA Tesla T4 GPU وسرعة ١١٨٧ إطار في الثانية. -- YOLOv6-S: ٤٥.٠٪ AP وسرعة ٤٨٤ إطار في الثانية. -- YOLOv6-M: ٥٠.٠٪ AP وسرعة ٢٢٦ إطار في الثانية. -- YOLOv6-L: ٥٢.٨٪ AP وسرعة ١١٦ إطار في الثانية. -- YOLOv6-L6: دقة حديثة في الزمن الحقيقي. - -كما يوفر YOLOv6 نماذج مؤنقة (quantized models) بدقات مختلفة ونماذج محسنة للمنصات المحمولة. - -## أمثلة عن الاستخدام - -يقدم هذا المثال أمثلة بسيطة لتدريب YOLOv6 واستنتاجه. للحصول على وثائق كاملة حول هذه وأوضاع أخرى [انظر](../modes/index.md) الى الصفحات التوضيحية لتوسعة الوثائق الفائقة ، [توقع](../modes/predict.md) ، [تدريب](../modes/train.md) ، [التحقق](../modes/val.md) و [التصدير](../modes/export.md). - -!!! Example "مثال" - - === "Python" - - يمكن تمرير النماذج المدرّبة مسبقًا بتنسيق `*.pt` في PyTorch وملفات التكوين `*.yaml` لفئة `YOLO()` لإنشاء نموذج في Python: - - ```python - from ultralytics import YOLO - - # إنشاء نموذج YOLOv6n من البداية - model = YOLO('yolov6n.yaml') - - # عرض معلومات النموذج (اختياري) - model.info() - - # تدريب النموذج على مجموعة بيانات مثال COCO8 لمدة 100 دورة تدريب - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # تشغيل الاستنتاج بنموذج YOLOv6n على صورة 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - يمكن استخدام أوامر CLI لتشغيل النماذج مباشرةً: - - ```bash - # إنشاء نموذج YOLOv6n من البداية وتدريبه باستخدام مجموعة بيانات مثال COCO8 لمدة 100 دورة تدريب - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # إنشاء نموذج YOLOv6n من البداية وتشغيل الاستنتاج على صورة 'bus.jpg' - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## المهام والأوضاع المدعومة - -تقدم سلسلة YOLOv6 مجموعة من النماذج، والتي تم تحسينها للكشف عن الكائنات عالي الأداء. تلبي هذه النماذج احتياجات الكمبيوتيشن المتنوعة ومتطلبات الدقة، مما يجعلها متعددة الاستخدامات في مجموعة واسعة من التطبيقات. - -| نوع النموذج | الأوزان المدربة مسبقًا | المهام المدعومة | الاستنتاج | التحقق | التدريب | التصدير | -|-------------|------------------------|-----------------------------------------|-----------|--------|---------|---------| -| YOLOv6-N | `yolov6-n.pt` | [الكشف عن الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [الكشف عن الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [الكشف عن الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [الكشف عن الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [الكشف عن الكائنات](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -توفر هذه الجدول نظرة عامة مفصلة على النماذج المختلفة لـ YOLOv6، مع تسليط الضوء على قدراتها في مهام الكشف عن الكائنات وتوافقها مع الأوضاع التشغيلية المختلفة مثل [الاستنتاج](../modes/predict.md) و [التحقق](../modes/val.md) و [التدريب](../modes/train.md) و [التصدير](../modes/export.md). هذا الدعم الشامل يضمن أن يمكن للمستخدمين الاستفادة الكاملة من قدرات نماذج YOLOv6 في مجموعة واسعة من سيناريوهات الكشف عن الكائنات. - -## الاقتباسات والتقديرات - -نحن نود أن نقدّم الشكر للمؤلفين على مساهماتهم الهامة في مجال كشف الكائنات في الوقت الحقيقي: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -يمكن العثور على الورقة الأصلية لـ YOLOv6 على [arXiv](https://arxiv.org/abs/2301.05586). نشر المؤلفون عملهم بشكل عام، ويمكن الوصول إلى الشيفرة المصدرية على [GitHub](https://github.com/meituan/YOLOv6). نحن نقدّر جهودهم في تطوير هذا المجال وجعل عملهم متاحًا للمجتمع بأسره. diff --git a/docs/ar/models/yolov7.md b/docs/ar/models/yolov7.md deleted file mode 100644 index 1cdcc639eaa..00000000000 --- a/docs/ar/models/yolov7.md +++ /dev/null @@ -1,66 +0,0 @@ ---- -comments: true -description: استكشف YOLOv7 ، جهاز كشف الكائنات في الوقت الحقيقي. تعرف على سرعته الفائقة، ودقته المذهلة، وتركيزه الفريد على تحسين الأمتعة التدريبية تدريبياً. -keywords: YOLOv7، كاشف الكائنات في الوقت الحقيقي، الحالة الفنية، Ultralytics، مجموعة بيانات MS COCO، المعيار المعاد تعريفه للنموذج، التسمية الديناميكية، التحجيم الموسع، التحجيم المركب ---- - -# YOLOv7: حقيبة مجانية قابلة للتدريب - -YOLOv7 هو كاشف الكائنات في الوقت الحقيقي الحديث الحالي الذي يتفوق على جميع كاشفات الكائنات المعروفة من حيث السرعة والدقة في النطاق من 5 إطارات في الثانية إلى 160 إطارًا في الثانية. إنه يتمتع بأعلى دقة (٥٦.٨٪ AP) بين جميع كاشفات الكائنات الحالية في الوقت الحقيقي بسرعة ٣٠ إطارًا في الثانية أو أعلى على GPU V100. علاوة على ذلك, يتفوق YOLOv7 على كاشفات الكائنات الأخرى مثل YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5 والعديد من الآخرين من حيث السرعة والدقة. النموذج مدرب على مجموعة بيانات MS COCO من البداية دون استخدام أي مجموعات بيانات أخرى أو وزن مُعين مُسبقًا. رمز المصدر لـ YOLOv7 متاح على GitHub. - -![مقارنة YOLOv7 مع كاشفات الكائنات الأعلى الفنية](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) - -**مقارنة بين كاشفات الكائنات الأعلى الفنية.** من النتائج في الجدول 2 نتعرف على أن الطريقة المقترحة لديها أفضل توازن بين السرعة والدقة بشكل شامل. إذا قارنا بين YOLOv7-tiny-SiLU و YOLOv5-N (r6.1) ، يكون الطريقة الحالية أسرع بـ ١٢٧ إطارًا في الثانية وأكثر دقة بنسبة ١٠.٧٪ من حيث AP. بالإضافة إلى ذلك ، YOLOv7 لديها AP بنسبة ٥١.٤٪ في معدل إطار ١٦١ في الثانية ، في حين يكون لـ PPYOLOE-L نفس AP فقط بمعدل إطار ٧٨ في الثانية. من حيث استخدام العوامل ، يكون YOLOv7 أقل بنسبة ٤١٪ من العوامل مقارنةً بـ PPYOLOE-L. إذا قارنا YOLOv7-X بسرعة تواصل بيانات ١١٤ إطارًا في الثانية مع YOLOv5-L (r6.1) مع سرعة تحليل ٩٩ إطارًا في الثانية ، يمكن أن يحسن YOLOv7-X AP بمقدار ٣.٩٪. إذا قورن YOLOv7-X بــ YOLOv5-X (r6.1) بنفس الحجم ، فإن سرعة تواصل البيانات في YOLOv7-X تكون أسرع بـ ٣١ إطارًا في الثانية. بالإضافة إلى ذلك ، من حيث كمية المعاملات والحسابات ، يقلل YOLOv7-X بنسبة ٢٢٪ من المعاملات و٨٪ من الحساب مقارنةً بـ YOLOv5-X (r6.1) ، ولكنه يحسن AP بنسبة ٢.٢٪ ([المصدر](https://arxiv.org/pdf/2207.02696.pdf)). - -## النظرة العامة - -كاشف الكائنات في الوقت الحقيقي هو جزء مهم في العديد من أنظمة رؤية الحاسوب ، بما في ذلك التتبع متعدد الكائنات والقيادة التلقائية والروبوتات وتحليل صور الأعضاء. في السنوات الأخيرة ، تركز تطوير كاشفات الكائنات في الوقت الحقيقي على تصميم هياكل فعالة وتحسين سرعة التحليل لمعالجات الكمبيوتر المركزية ومعالجات الرسومات ووحدات معالجة الأعصاب (NPUs). يدعم YOLOv7 كلاً من GPU المحمول وأجهزة الـ GPU ، من الحواف إلى السحابة. - -على عكس كاشفات الكائنات في الوقت الحقيقي التقليدية التي تركز على تحسين الهياكل ، يُقدم YOLOv7 تركيزًا على تحسين عملية التدريب. يتضمن ذلك وحدات وطرق تحسين تُصمم لتحسين دقة كشف الكائنات دون زيادة تكلفة التحليل ، وهو مفهوم يُعرف بـ "الحقيبة القابلة للتدريب للمجانيات". - -## الميزات الرئيسية - -تُقدم YOLOv7 عدة ميزات رئيسية: - -1. **إعادة تعيين نموذج المعاملات**: يقترح YOLOv7 نموذج معاملات معين مخطط له ، وهو استراتيجية قابلة للتطبيق على الطبقات في شبكات مختلفة باستخدام مفهوم مسار انتشار التدرج. - -2. **التسمية الديناميكية**: تدريب النموذج مع عدة طبقات إخراج يبرز قضية جديدة: "كيفية تعيين أهداف ديناميكية لإخراج الفروع المختلفة؟" لحل هذه المشكلة ، يقدم YOLOv7 طريقة تسمية جديدة تسمى تسمية الهدف المرشدة من الخشن إلى الدقيقة. - -3. **التحجيم الموسع والمركب**: يقترح YOLOv7 طرق "التحجيم الموسع" و "التحجيم المركب" لكاشف الكائنات في الوقت الحقيقي التي يمكن أن تستخدم بشكل فعال في المعاملات والحسابات. - -4. **الكفاءة**: يمكن للطريقة المقترحة بواسطة YOLOv7 تقليل بشكل فعال حوالي 40٪ من المعاملات و 50٪ من الحساب لكاشف الكائنات في الوقت الحقيقي الأولى من حيث الدقة والسرعة في التحليل. - -## أمثلة على الاستخدام - -في وقت كتابة هذا النص ، لا تدعم Ultralytics حاليًا نماذج YOLOv7. لذلك ، سيحتاج أي مستخدمين مهتمين باستخدام YOLOv7 إلى الرجوع مباشرة إلى مستودع YOLOv7 على GitHub للحصول على تعليمات التثبيت والاستخدام. - -وفيما يلي نظرة عامة على الخطوات النموذجية التي يمكنك اتباعها لاستخدام YOLOv7: - -1. قم بزيارة مستودع YOLOv7 على GitHub: [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7). - -2. اتبع التعليمات الموجودة في ملف README لعملية التثبيت. يتضمن ذلك عادةً استنساخ المستودع ، وتثبيت التبعيات اللازمة ، وإعداد أي متغيرات بيئة ضرورية. - -3. بمجرد الانتهاء من عملية التثبيت ، يمكنك تدريب النموذج واستخدامه وفقًا لتعليمات الاستخدام الموجودة في المستودع. ينطوي ذلك عادةً على إعداد مجموعة البيانات الخاصة بك ، وتكوين معلمات النموذج ، وتدريب النموذج ، ثم استخدام النموذج المدرب لأداء كشف الكائنات. - -يرجى ملاحظة أن الخطوات المحددة قد تختلف اعتمادًا على حالة الاستخدام الخاصة بك والحالة الحالية لمستودع YOLOv7. لذا ، يُوصى بشدة بالرجوع مباشرة إلى التعليمات المقدمة في مستودع YOLOv7 على GitHub. - -نأسف على أي إزعاج قد يسببه ذلك وسنسعى لتحديث هذا المستند بأمثلة على الاستخدام لـ Ultralytics عندما يتم تنفيذ الدعم لـ YOLOv7. - -## الاقتباسات والشكر - -نود أن نشكر كتاب YOLOv7 على مساهماتهم الهامة في مجال اكتشاف الكائنات في الوقت الحقيقي: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -يمكن العثور على ورقة YOLOv7 الأصلية على [arXiv](https://arxiv.org/pdf/2207.02696.pdf). قدم الكتاب عملهم علنياً، ويمكن الوصول إلى قاعدة الشيفرة على [GitHub](https://github.com/WongKinYiu/yolov7). نحن نقدر جهودهم في تقدم المجال وتوفير عملهم للمجتمع بشكل عام. diff --git a/docs/ar/models/yolov8.md b/docs/ar/models/yolov8.md deleted file mode 100644 index 00ba0ec5395..00000000000 --- a/docs/ar/models/yolov8.md +++ /dev/null @@ -1,166 +0,0 @@ ---- -comments: true -description: استكشف الميزات المثيرة لـ YOLOv8 ، أحدث إصدار من مكتشف الكائنات الحية الخاص بنا في الوقت الحقيقي! تعرّف على العمارات المتقدمة والنماذج المدرّبة مسبقًا والتوازن المثلى بين الدقة والسرعة التي تجعل YOLOv8 الخيار المثالي لمهام الكشف عن الكائنات الخاصة بك. -keywords: YOLOv8, Ultralytics, مكتشف الكائنات الحية الخاص بنا في الوقت الحقيقي, النماذج المدرّبة مسبقًا, وثائق, الكشف عن الكائنات, سلسلة YOLO, العمارات المتقدمة, الدقة, السرعة ---- - -# YOLOv8 - -## نظرة عامة - -YOLOv8 هو التطور الأخير في سلسلة YOLO لمكتشفات الكائنات الحية الخاصة بنا في الوقت الحقيقي ، والذي يقدم أداءً متقدمًا في مجال الدقة والسرعة. بناءً على التقدمات التي تم إحرازها في إصدارات YOLO السابقة ، يقدم YOLOv8 ميزات وتحسينات جديدة تجعله الخيار المثالي لمهام الكشف عن الكائنات في مجموعة واسعة من التطبيقات. - -![YOLOv8 المقدمة من Ultralytics](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## الميزات الرئيسية - -- **العمارات المتقدمة للظهر والعنق:** يعتمد YOLOv8 على عمارات الظهر والعنق على أحدث طراز ، مما يؤدي إلى تحسين استخراج الميزات وأداء الكشف عن الكائنات. -- **Ultralytics Head بدون إثبات خطافي:** يعتمد YOLOv8 على Ultralytics Head بدون إثبات خطافي ، مما يسهم في زيادة الدقة وتوفير وقت مكشف أكثر كفاءة مقارنةً بالطرق التي تعتمد على الإثبات. -- **توازن مثالي بين الدقة والسرعة محسَّن:** بتركيزه على الحفاظ على توازن مثالي بين الدقة والسرعة ، فإن YOLOv8 مناسب لمهام الكشف عن الكائنات في الوقت الحقيقي في مجموعة متنوعة من المجالات التطبيقية. -- **تشكيلة من النماذج المدرّبة مسبقًا:** يقدم YOLOv8 مجموعة من النماذج المدرّبة مسبقًا لتلبية متطلبات المهام المختلفة ومتطلبات الأداء ، مما يجعل من السهل إيجاد النموذج المناسب لحالتك الاستخدامية الخاصة. - -## المهام والأوضاع المدعومة - -تقدم سلسلة YOLOv8 مجموعة متنوعة من النماذج ، يتم تخصيص كلًا منها للمهام المحددة في رؤية الحاسوب. تم تصميم هذه النماذج لتلبية متطلبات مختلفة ، بدءًا من الكشف عن الكائنات إلى مهام أكثر تعقيدًا مثل تقسيم الصور إلى أجزاء واكتشاف نقاط المفاتيح والتصنيف. - -تمت تحسين كل نوع من سلسلة YOLOv8 للمهام التي تخصها ، مما يضمن أداء ودقة عاليين. بالإضافة إلى ذلك ، تتوافق هذه النماذج مع أوضاع تشغيل مختلفة بما في ذلك [الاستدلال](../modes/predict.md) ، [التحقق](../modes/val.md) ، [التدريب](../modes/train.md) و [التصدير](../modes/export.md) ، مما يسهل استخدامها في مراحل مختلفة من عملية التطوير والتنفيذ. - -| النموذج | أسماء الملف | المهمة | استدلال | التحقق | التدريب | التصدير | -|-------------|----------------------------------------------------------------------------------------------------------------|----------------------------------------------|---------|--------|---------|---------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [الكشف](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [تقسيم الصور إلى أجزاء](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [المواقق/نقاط المفاتيح](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [التصنيف](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -توفر هذه الجدولة نظرة عامة على متغيرات نموذج YOLOv8 ، مما يسلط الضوء على قابليتها للتطبيق في مهام محددة وتوافقها مع أوضاع تشغيل مختلفة مثل الاستدلال والتحقق والتدريب والتصدير. يعرض مرونة وقوة سلسلة YOLOv8 ، مما يجعلها مناسبة لمجموعة متنوعة من التطبيقات في رؤية الحاسوب. - -## مقاييس الأداء - -!!! الأداء - - === "الكشف (COCO)" - - انظر إلى [وثائق الكشف](https://docs.ultralytics.com/tasks/detect/) لأمثلة عن الاستخدام مع هذه النماذج المدربة مسبقًا على [COCO](https://docs.ultralytics.com/datasets/detect/coco/) ، التي تضم 80 فئة مدربة مسبقًا. - - | النموذج | حجم
(بيكسل) | معدل الكشفالتحقق
50-95 | سرعة
CPU ONNX
(متوسط) | سرعة
A100 TensorRT
(متوسط) | معلمات
(مليون) | FLOPs
(مليون) | - | ------------------------------------------------------------------------------------ | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - - === "الكشف (صور مفتوحة V7)" - - انظر إلى [وثائق الكشف](https://docs.ultralytics.com/tasks/detect/) لأمثلة عن الاستخدام مع هذه النماذج المدربة مسبقًا على [Open Image V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/)، والتي تضم 600 فئة مدربة مسبقًا. - - | النموذج | حجم
(بيكسل) | معدل الكشفالتحقق
50-95 | سرعة
CPU ONNX
(متوسط) | سرعة
A100 TensorRT
(متوسط) | معلمات
(مليون) | FLOPs
(مليون) | - | ----------------------------------------------------------------------------------------- | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 | - - === "تقسيم الصور إلى أجزاء (COCO)" - - انظر إلى [وثائق التقسيم](https://docs.ultralytics.com/tasks/segment/) لأمثلة عن الاستخدام مع هذه النماذج المدرّبة مسبقًا على [COCO](https://docs.ultralytics.com/datasets/segment/coco/)، والتي تضم 80 فئة مدربة مسبقًا. - - | النموذج | حجم
(بيكسل) | معدل التقسيمالتحقق
50-95 | معدل التقسيمالأقنعة
50-95 | سرعة
CPU ONNX
(متوسط) | سرعة
A100 TensorRT
(متوسط) | معلمات
(مليون) | FLOPs
(مليون) | - | -------------------------------------------------------------------------------------------- | --------------------- | -------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - - === "التصنيف (ImageNet)" - - انظر إلى [وثائق التصنيف](https://docs.ultralytics.com/tasks/classify/) لأمثلة عن الاستخدام مع هذه النماذج المدرّبة مسبقًا على [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/)، والتي تضم 1000 فئة مدربة مسبقًا. - - | النموذج | حجم
(بيكسل) | دقة أعلى
أعلى 1 | دقة أعلى
أعلى 5 | سرعة
CPU ONNX
(متوسط) | سرعة
A100 TensorRT
(متوسط) | معلمات
(مليون) | FLOPs
(مليون) عند 640 | - | -------------------------------------------------------------------------------------------- | --------------------- | ---------------- | ---------------- | ------------------------------ | ----------------------------------- | ------------------ | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - - === "المواقف (COCO)" - - انظر إلى [وثائق تقدير المواقع] (https://docs.ultralytics.com/tasks/pose/) لأمثلة على الاستخدام مع هذه النماذج المدربة مسبقًا على [COCO](https://docs.ultralytics.com/datasets/pose/coco/)، والتي تتضمن فئة واحدة مدربة مسبقًا ، 'شخص'. - - | النموذج | حجم
(بيكسل) | معدل التوضيحالتحقق
50-95 | معدل التوضيح50 | سرعة
CPU ONNX
(متوسط) | سرعة
A100 TensorRT
(متوسط) | معلمات
(مليون) | FLOPs
(مليون) | - | ---------------------------------------------------------------------------------------------------- | --------------------- | --------------------- | ------------------ | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -## أمثلة استخدام - -يوفر هذا المثال أمثلة بسيطة للتدريب والتنبؤ باستخدام YOLOv8. للحصول على وثائق كاملة حول هذه وغيرها من [الأوضاع](../modes/index.md) ، انظر إلى صفحات وثائق [تنبؤ](../modes/predict.md) ، [تدريب](../modes/train.md) ، [التحقق](../modes/val.md) و [التصدير](../modes/export.md) . - -يرجى ملاحظة أن المثال أدناه يتعلق بطراز YOLOv8 [Detect](../tasks/detect.md) للكشف عن الكائنات. لمهام مدعومة إضافية ، انظر إلى وثائق [تقسيم](../tasks/segment.md) ، [تحديد إنتماء](../tasks/classify.md) و [تصوير (Pose)](../tasks/pose.md) . - -!!! - -!!! Example "مثال" - - === "Python" - - يمكن تمرير نماذج الـ PyTorch المُدرّبة المُحفوظة بالامتداد `*.pt` بالإضافة إلى ملفات التكوين بامتداد `*.yaml` إلى فئة `YOLO()` لإنشاء نموذج في لغة بايثون: - - ```python - from ultralytics import YOLO - - # تحميل نموذج YOLOv8n المدرّب مسبقًا على COCO - model = YOLO('yolov8n.pt') - - # عرض معلومات النموذج (اختياري) - model.info() - - # تدريب النموذج على مجموعة بيانات المُدخلات coco8 على سبيل المثال لمدة 100 دورة - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # تشغيل التنبؤ باستخدام نموذج YOLOv8n على صورة 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - تتوفر أوامر CLI لتشغيل النماذج مباشرة: - - ```bash - # تحميل نموذج YOLOv8n المدرّب مسبقًا على COCO واختباره على مجموعة بيانات coco8 - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # تحميل نموذج YOLOv8n المدرّب مسبقًا على COCO والتنبؤ به على صورة 'bus.jpg' - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## الاقتباسات والتقديرات - -إذا استخدمت نموذج YOLOv8 أو أي برنامج آخر من هذا المستودع في عملك ، فيرجى استشهاده باستخدام التنسيق التالي: - -!!!، - -!!! quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -يرجى ملاحظة أن وجود معرف الكائن الرقمي (DOI) قيد الانتظار وسيتم إضافته إلى الاقتباس بمجرد توفره. تُقدم نماذج YOLOv8 بموجب [رخصة AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) و [الرخصة المؤسسية](https://ultralytics.com/license). diff --git a/docs/ar/modes/benchmark.md b/docs/ar/modes/benchmark.md deleted file mode 100644 index 506240afac0..00000000000 --- a/docs/ar/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: تعرف على كيفية قياس سرعة ودقة YOLOv8 عبر تنسيقات التصدير المختلفة. احصل على رؤى حول مقاييس mAP50-95 وaccuracy_top5 والمزيد. -keywords: Ultralytics، YOLOv8، اختبار الأداء، قياس السرعة، قياس الدقة، مقاييس mAP50-95 وaccuracy_top5، ONNX، OpenVINO، TensorRT، تنسيقات تصدير YOLO ---- - -# اختبار النموذج باستخدام Ultralytics YOLO - -Ultralytics YOLO ecosystem and integrations - -## المقدمة - -بمجرد أن يتم تدريب نموذجك وتحقق صحته ، فإن الخطوة التالية بشكل منطقي هي تقييم أدائه في سيناريوهات العالم الحقيقي المختلفة. يوفر وضع الاختبار في Ultralytics YOLOv8 هذا الهدف من خلال توفير إطار قوي لتقييم سرعة ودقة النموذج عبر مجموعة من صيغ التصدير. - -## لماذا هو اختبار الأداء مهم؟ - -- **قرارات مستنيرة:** اكتساب رؤى حول التنازلات بين السرعة والدقة. -- **تخصيص الموارد:** فهم كيفية أداء تنسيقات التصدير المختلفة على أجهزة مختلفة. -- **تحسين:** تعلم أي تنسيق تصدير يقدم أفضل أداء لحالتك الاستخدامية المحددة. -- **كفاءة التكلفة:** استخدام الموارد الأجهزة بشكل أكثر كفاءة بناءً على نتائج الاختبار. - -### المقاييس الرئيسية في وضع الاختبار - -- **mAP50-95:** لكشف الكائنات وتقسيمها وتحديد الوضع. -- **accuracy_top5:** لتصنيف الصور. -- **وقت التتبع:** الوقت المستغرق لكل صورة بالميلي ثانية. - -### تنسيقات التصدير المدعومة - -- **ONNX:** لأفضل أداء على وحدة المعالجة المركزية. -- **TensorRT:** لأقصى استفادة من وحدة المعالجة الرسومية. -- **OpenVINO:** لتحسين الأجهزة من إنتل. -- **CoreML و TensorFlow SavedModel وما إلى ذلك:** لتلبية احتياجات النشر المتنوعة. - -!!! Tip "نصيحة" - - * قم بتصدير إلى نموذج ONNX أو OpenVINO لزيادة سرعة وحدة المعالجة المركزية بمقدار 3 مرات. - * قم بتصدير إلى نموذج TensorRT لزيادة سرعة وحدة المعالجة الرسومية بمقدار 5 مرات. - -## أمثلة على الاستخدام - -قم بتشغيل اختبارات YOLOv8n على جميع تنسيقات التصدير المدعومة بما في ذلك ONNX و TensorRT وما إلى ذلك. انظر القسم الموجود أدناه للحصول على قائمة كاملة من وسيطات التصدير. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # اختبار على وحدة المعالجة الرسومية - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## وسيطات - -توفر الوسائط مثل `model` و `data` و `imgsz` و `half` و `device` و `verbose` مرونة للمستخدمين لضبط الاختبارات حسب احتياجاتهم المحددة ومقارنة أداء تنسيقات التصدير المختلفة بسهولة. - -| المفتاح | القيمة | الوصف | -|-----------|---------|---------------------------------------------------------------------------------------------------| -| `model` | `None` | مسار إلى ملف النموذج ، على سبيل المثال yolov8n.pt ، yolov8n.yaml | -| `data` | `None` | مسار إلى YAML يشير إلى مجموعة بيانات اختبار الأداء (بتحتوى على بيانات `val`) | -| `imgsz` | `640` | حجم الصورة كرقم ، أو قائمة (h ، w) ، على سبيل المثال (640، 480) | -| `half` | `False` | تقليل دقة العدد العشرى للأبعاد (FP16 quantization) | -| `int8` | `False` | تقليل دقة العدد الصحيح 8 بت (INT8 quantization) | -| `device` | `None` | الجهاز الذى ستعمل عليه العملية ، على سبيل المثال cuda device=0 أو device=0,1,2,3 أو device=cpu | -| `verbose` | `False` | عدم المتابعة عند حدوث خطأ (مقدار منطقى)، أو مستوى الكشف عند تجاوز حد القيمة المطلوبة (قيمة عائمة) | - -## صيغ التصدير - -سيحاول التطبيق تشغيل الاختبارات تلقائيًا على جميع صيغ التصدير الممكنة الموجودة أدناه. - -| Format | `format` Argument | Model | Metadata | Arguments | -|--------------------------------------------------------------------|-------------------|---------------------------|----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -انظر تفاصيل التصدير الكاملة في الصفحة [Export](https://docs.ultralytics.com/modes/export/) diff --git a/docs/ar/modes/export.md b/docs/ar/modes/export.md deleted file mode 100644 index f555ec0599f..00000000000 --- a/docs/ar/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: دليل خطوة بخطوة حول تصدير نماذج YOLOv8 الخاصة بك إلى تنسيقات مختلفة مثل ONNX و TensorRT و CoreML وغيرها للنشر. استكشف الآن!. -keywords: YOLO، YOLOv8، Ultralytics، تصدير النموذج، ONNX، TensorRT، CoreML، TensorFlow SavedModel، OpenVINO، PyTorch، تصدير النموذج ---- - -# تصدير النموذج باستخدام يولو من Ultralytics - -إكوسيستم يولو من Ultralytics والتكاملات - -## مقدمة - -الهدف النهائي لتدريب نموذج هو نشره لتطبيقات العالم الحقيقي. يوفر وضع التصدير في يولو من Ultralytics مجموعة متنوعة من الخيارات لتصدير النموذج المدرب إلى تنسيقات مختلفة، مما يجعله يمكن استخدامه في مختلف الأنظمة والأجهزة. يهدف هذا الدليل الشامل إلى مساعدتك في فهم تفاصيل تصدير النموذج، ويعرض كيفية تحقيق أقصى توافق وأداء. - -

-
- -
- شاهد: كيفية تصدير نموذج Ultralytics YOLOv8 التدريب المخصص وتشغيل الاستدلال المباشر على كاميرا الويب. -

- -## لماذا اختيار وضع تصدير YOLOv8؟ - -- **التنوع:** تصدير إلى تنسيقات متعددة بما في ذلك ONNX و TensorRT و CoreML ، وغيرها. -- **الأداء:** الحصول على سرعة تسريع تصل إلى 5 أضعاف باستخدام TensorRT وسرعة تسريع معالج الكمبيوتر المركزي بنسبة 3 أضعاف باستخدام ONNX أو OpenVINO. -- **التوافقية:** جعل النموذج قابلاً للنشر على الأجهزة والبرامج المختلفة. -- **سهولة الاستخدام:** واجهة سطر الأوامر البسيطة وواجهة برمجة Python لتصدير النموذج بسرعة وسهولة. - -### الميزات الرئيسية لوضع التصدير - -إليك بعض من الميزات المميزة: - -- **تصدير بنقرة واحدة:** أوامر بسيطة لتصدير إلى تنسيقات مختلفة. -- **تصدير الدُفعات:** تصدير نماذج قادرة على العمل مع الدُفعات. -- **تنفيذ محسَّن:** يتم تحسين النماذج المصدرة لتوفير وقت تنفيذ أسرع. -- **فيديوهات تعليمية:** مرشدين وفيديوهات تعليمية لتجربة تصدير سلسة. - -!!! Tip "نصيحة" - - * صدّر إلى ONNX أو OpenVINO للحصول على تسريع معالج الكمبيوتر المركزي بنسبة 3 أضعاف. - * صدّر إلى TensorRT للحصول على تسريع وحدة المعالجة الرسومية بنسبة 5 أضعاف. - -## أمثلة للاستخدام - -قم بتصدير نموذج YOLOv8n إلى تنسيق مختلف مثل ONNX أو TensorRT. انظر الجدول أدناه للحصول على قائمة كاملة من وسائط التصدير. - -!!! Example "مثال" - - === "بايثون" - - ```python - from ultralytics import YOLO - - # قم بتحميل نموذج - model = YOLO('yolov8n.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص - - # قم بتصدير النموذج - model.export(format='onnx') - ``` - === "واجهة سطر الأوامر" - - ```bash - yolo export model=yolov8n.pt format=onnx # تصدير نموذج رسمي - yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرب مخصص - ``` - -## الوسائط - -تشير إعدادات تصدير YOLO إلى التكوينات والخيارات المختلفة المستخدمة لحفظ أو تصدير النموذج للاستخدام في بيئات أو منصات أخرى. يمكن أن تؤثر هذه الإعدادات على أداء النموذج وحجمه وتوافقه مع الأنظمة المختلفة. تشمل بعض إعدادات تصدير YOLO الشائعة تنسيق ملف النموذج المصدر (مثل ONNX وتنسيق TensorFlow SavedModel) والجهاز الذي سيتم تشغيل النموذج عليه (مثل المعالج المركزي أو وحدة المعالجة الرسومية) ووجود ميزات إضافية مثل الأقنعة أو التسميات المتعددة لكل مربع. قد تؤثر عوامل أخرى قد تؤثر عملية التصدير تشمل المهمة النموذجة المحددة التي يتم استخدام النموذج لها ومتطلبات أو قيود البيئة أو المنصة المستهدفة. من المهم أن ننظر بعناية ونقوم بتكوين هذه الإعدادات لضمان أن النموذج المصدر هو محسَّن للحالة الاستخدام المقصودة ويمكن استخدامه بشكل فعال في البيئة المستهدفة. - -| المفتاح | القيمة | الوصف | -|-------------|-----------------|-----------------------------------------------------------------------| -| `format` | `'torchscript'` | التنسيق المراد تصديره | -| `imgsz` | `640` | حجم الصورة كمقدار علمي أو قائمة (h ، w) ، على سبيل المثال (640 ، 480) | -| `keras` | `False` | استخدام Keras لتصدير TF SavedModel | -| `optimize` | `False` | TorchScript: الأمثل للجوال | -| `half` | `False` | تكميم FP16 | -| `int8` | `False` | تكميم INT8 | -| `dynamic` | `False` | ONNX/TensorRT: المحاور الديناميكية | -| `simplify` | `False` | ONNX/TensorRT: تبسيط النموذج | -| `opset` | `None` | ONNX: إصدار opset (اختياري ، الافتراضي هو الأحدث) | -| `workspace` | `4` | TensorRT: حجم مساحة العمل (GB) | -| `nms` | `False` | CoreML: إضافة NMS | - -## تنسيقات التصدير - -صيغ تصدير YOLOv8 المتاحة في الجدول أدناه. يمكنك التصدير إلى أي تنسيق باستخدام الوسيطة `format` ، مثل `format='onnx'` أو `format='engine'`. - -| التنسيق | وسيطة format | النموذج | البيانات الوصفية | الوسائط | -|--------------------------------------------------------------------|---------------|---------------------------|------------------|-----------------------------------------------------| -| [بايثورش](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `تورتشسيريبت` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/ar/modes/index.md b/docs/ar/modes/index.md deleted file mode 100644 index 86e2c4d36ab..00000000000 --- a/docs/ar/modes/index.md +++ /dev/null @@ -1,77 +0,0 @@ ---- -comments: true -description: من التدريب إلى التتبع، استفد من YOLOv8 مع Ultralytics. احصل على نصائح وأمثلة لكل وضع مدعوم بما في ذلك التحقق والتصدير واختبار الأداء. -keywords: Ultralytics, YOLOv8, التعلم الآلي، كشف الكائنات، التدريب، التحقق، التنبؤ، التصدير، التتبع، اختبار الأداء ---- - -# أوضاع Ultralytics YOLOv8 - -بيئة عمل Ultralytics YOLO والتكاملات - -## المقدمة - -YOLOv8 من Ultralytics ليست مجرد نموذج لكشف الكائنات آخر؛ إنها إطار متعدد الاستخدامات مصمم لتغطية دورة حياة نماذج التعلم الآلي بأكملها - من امتصاص البيانات وتدريب النموذج إلى التحقق والنشر وتتبع الواقع الحقيقي. يخدم كل وضع غرضًا محددًا وهو مصمم لتوفير المرونة والكفاءة المطلوبة للمهام والحالات الاستخدام المختلفة. - -!!! Note "ملاحظة" - - 🚧 توثيقنا متعدد اللغات قيد الإنشاء حاليًا، ونحن نعمل بجهد لتحسينه. شكرًا لك على صبرك! 🙏 - -

-
- -
- شاهد: برنامج التعليم Ultralytics: تدريب، التحقق، التنبؤ، التصدير، واختبار الأداء. -

- -### أوضاع مختصرة - -فهم ال**أوضاع** المختلفة المدعومة بواسطة Ultralytics YOLOv8 مهم جدًا للاستفادة القصوى من النماذج الخاصة بك: - -- وضع **التدريب**: قم بضبط نموذجك على مجموعة بيانات مخصصة أو محملة مسبقًا. -- وضع **التحقق**: نقطة فحص بعد التدريب لتقييم أداء النموذج. -- وضع **التنبؤ**: اطلق قوة التنبؤ الخاصة بنموذجك على البيانات الحقيقية. -- وضع **التصدير**: قم بتجهيز نموذجك للاستخدام في صيغ مختلفة. -- وضع **التتبع**: قم بتوسيع نموذج الكشف عن الكائنات الخاص بك إلى تطبيقات التتبع في الوقت الحقيقي. -- وضع **اختبار الأداء**: قم بتحليل سرعة ودقة نموذجك في بيئات نشر متنوعة. - -يهدف هذا الدليل الشامل إلى تقديم لمحة عامة ونصائح عملية حول كل وضع، لمساعدتك في استغلال كامل إمكانات YOLOv8. - -## [وضع التدريب](train.md) - -يتم استخدام وضع التدريب لتدريب نموذج YOLOv8 على مجموعة بيانات مخصصة. في هذا الوضع، يتم تدريب النموذج باستخدام مجموعة البيانات والمعلمات الهايبر للحصول على دقة في توقع الفئات ومواقع الكائنات في الصورة. - -[أمثلة التدريب](train.md){ .md-button } - -## [وضع التحقق](val.md) - -يتم استخدام وضع التحقق للتحقق من نموذج YOLOv8 بعد تدريبه. في هذا الوضع، يتم تقييم النموذج على مجموعة التحقق لقياس دقته وأداء التعميم. يمكن استخدام هذا الوضع لتعديل المعلمات الهايبر للنموذج لتحسين أدائه. - -[أمثلة التحقق](val.md){ .md-button } - -## [وضع التنبؤ](predict.md) - -يتم استخدام وضع التنبؤ لإجراء تنبؤات باستخدام نموذج YOLOv8 المدرب على صور أو فيديوهات جديدة. في هذا الوضع، يتم تحميل النموذج من ملف الفحص، ويمكن للمستخدم توفير الصور أو مقاطع الفيديو لإجراء استدلال. يقوم النموذج بتوقع الفئات ومواقع الكائنات في الصور أو مقاطع الفيديو المدخلة. - -[أمثلة التنبؤ](predict.md){ .md-button } - -## [وضع التصدير](export.md) - -يتم استخدام وضع التصدير لتصدير نموذج YOLOv8 إلى صيغة يمكن استخدامها للنشر. في هذا الوضع، يتم تحويل النموذج إلى صيغة يمكن استخدامها من قبل تطبيقات البرامج الأخرى أو الأجهزة الأجهزة. يكون هذا الوضع مفيدًا عند نشر النموذج في بيئات الإنتاج. - -[أمثلة التصدير](export.md){ .md-button } - -## [وضع التتبع](track.md) - -يتم استخدام وضع التتبع لتتبع الكائنات في الوقت الحقيقي باستخدام نموذج YOLOv8. في هذا الوضع، يتم تحميل النموذج من ملف الفحص، ويمكن للمستخدم توفير تيار فيديو مباشر لأداء تتبع الكائنات في الوقت الفعلي. يكون هذا الوضع مفيدًا لتطبيقات مثل أنظمة المراقبة أو السيارات ذاتية القيادة. - -[أمثلة التتبع](track.md){ .md-button } - -## [وضع اختبار الأداء](benchmark.md) - -يتم استخدام وضع اختبار الأداء لتقييم سرعة ودقة صيغ التصدير المختلفة لـ YOLOv8. تقدم الاختبارات معلومات حول حجم الصيغة المصدر، معيار الأداء `mAP50-95` (لكشف الكائنات والتقسيم والتصوير) أو المعيار `accuracy_top5` (للتصنيف)، ووقت الاستدلال بالملي ثانية لكل صورة في صيغ التصدير المختلفة مثل ONNX و OpenVINO و TensorRT وغيرها. يمكن لهذه المعلومات مساعدة المستخدمين على اختيار صيغة التصدير الأمثل لحالتهم الاستخدامية المحددة بناءً على متطلبات السرعة والدقة. - -[أمثلة اختبار الأداء](benchmark.md){ .md-button } diff --git a/docs/ar/modes/predict.md b/docs/ar/modes/predict.md deleted file mode 100644 index 69a9cb8b4ac..00000000000 --- a/docs/ar/modes/predict.md +++ /dev/null @@ -1,217 +0,0 @@ ---- -comments: true -description: اكتشف كيفية استخدام وضع التنبؤ YOLOv8 لمهام مختلفة. تعرّف على مصادر التنبؤ المختلفة مثل الصور ومقاطع الفيديو وتنسيقات البيانات المختلفة. -keywords: Ultralytics، YOLOv8، وضع التنبؤ، مصادر التنبؤ، مهام التنبؤ، وضع التدفق، معالجة الصور، معالجة الفيديو، التعلم الآلي، الذكاء الاصطناعي ---- - -# التنبؤ بالنموذج باستخدام Ultralytics YOLO - -البيئة والتكامل الخاصة بنظام Ultralytics YOLO - -## المقدمة - -في عالم التعلم الآلي ورؤية الحاسوب، يُطلق على عملية استخلاص المعنى من البيانات البصرية اسم "الاستدلال" أو "التنبؤ". يوفر YOLOv8 من Ultralytics ميزة قوية تُعرف بـ**وضع التنبؤ** والتي تم تصميمها خصيصًا للاستدلال في الوقت الحقيقي وبأداء عال على مجموعة واسعة من مصادر البيانات. - -

-
- -
- شاهد: كيفية استخراج النتائج من نموذج Ultralytics YOLOv8 لمشاريع مخصصة. -

- -## التطبيقات في العالم الحقيقي - -| التصنيع | الرياضة | السلامة | -|:-------------------------------------------------:|:----------------------------------------------------:|:-------------------------------------------:| -| ![Vehicle Spare Parts Detection][car spare parts] | ![Football Player Detection][football player detect] | ![People Fall Detection][human fall detect] | -| كشف قطع غيار المركبات | كشف لاعبي كرة القدم | كشف سقوط الأشخاص | - -## لماذا يجب استخدام Ultralytics YOLO لعمليات التنبؤ؟ - -فيما يلي الأسباب التي يجب أخذها في الاعتبار عند الاستفادة من وضع التنبؤ YOLOv8 لاحتياجات التنبؤ المختلفة: - -- **التنوع:** قادر على التنبؤ على الصور ومقاطع الفيديو، وحتى التدفقات الحية. -- **الأداء:** مصمم للتطبيقات في الوقت الحقيقي والمعالجة عالية السرعة دون التضحية بالدقة. -- **سهولة الاستخدام:** واجهات Python والواجهة السطرية لتسريع النشر والاختبار. -- **قابلية التخصيص العالية:** إعدادات ومعلمات مختلفة لضبط سلوك التنبؤ النموذج وفقًا لمتطلباتك المحددة. - -### الميزات الرئيسية لوضع التنبؤ - -تم تصميم وضع التنبؤ الخاص بـ YOLOv8 ليكون قويًا ومتعدد الاستخدامات، ويتميز بما يلي: - -- **توافق متعدد مصادر البيانات:** سواء كانت بياناتك عبارة عن صور فردية أو مجموعة من الصور أو ملفات فيديو أو تدفقات فيديو في الوقت الحقيقي، سيتمكن وضع التنبؤ من التعامل معها جميعًا. -- **وضع التدفق الحي:** استخدم ميزة التدفق لإنشاء مولد فعّال لكائنات "النتائج" باستخدام الذاكرة. قم بتمكين هذا بتعيين `stream=True` في طريقة استدعاء المتنبئ. -- **معالجة دُفعات:** القدرة على معالجة العديد من الصور أو إطارات الفيديو في دُفعة واحدة، مما يزيد أكثر من سرعة التنبؤ. -- **سهل التكامل:** يسهل الدمج مع خطوط الأنابيب البيانية الحالية ومكونات البرامج الأخرى بفضل واجهة برمجة التطبيقات المرنة. - -تُرجع نماذج Ultralytics YOLO إما قائمة Python من كائنات "النتائج" أو مُنشئ برمجياً فعّال لكائنات الـ "النتائج" في حال تم تمرير `stream=True` إلى النموذج أثناء عملية التنبؤ: - -!!! Example "التنبؤ" - - === "العودة بقائمة واحدة باستخدام `stream=False`" - ```python - from ultralytics import YOLO - - # تحميل نموذج - model = YOLO('yolov8n.pt') # نموذج YOLOv8n المُدرَّب مسبقًا - - # تشغيل التنبؤ بدُفعة على قائمة من الصور - results = model(['im1.jpg', 'im2.jpg']) # العودة بقائمة من كائنات 'النتائج' - - # معالجة قائمة النتائج - for result in results: - boxes = result.boxes # كائن Boxes لمخرجات bbox - masks = result.masks # كائن Masks لمخرجات قنوات الفصل العنقودي - keypoints = result.keypoints # كائن Keypoints لمخرجات الاتجاهات - probs = result.probs # كائن Probs لمخرجات التصنيف - ``` - - === "العودة بمُنشئ فعال مع `stream=True`" - ```python - from ultralytics import YOLO - - # تحميل نموذج - model = YOLO('yolov8n.pt') # نموذج YOLOv8n المُدرَّب مسبقًا - - # تشغيل التنبؤ بدُفعة على قائمة من الصور - results = model(['im1.jpg', 'im2.jpg'], stream=True) # العودة بمُنشئ فعال لكائنات 'النتائج' - - # معالجة المُنشئ الفعال - for result in results: - boxes = result.boxes # كائن Boxes لمخرجات bbox - masks = result.masks # كائن Masks لمخرجات قنوات الفصل العنقودي - keypoints = result.keypoints # كائن Keypoints لمخرجات الاتجاهات - probs = result.probs # كائن Probs لمخرجات التصنيف - ``` - -## مصادر التنبؤ - -يمكن لـ YOLOv8 معالجة أنواع مختلفة من مصادر الإدخال لعملية الاستدلال، على النحو الموضح في الجدول أدناه. تشمل المصادر الصور الثابتة وتيارات الفيديو وتنسيقات مختلفة للبيانات. يشير الجدول أيضًا إلى ما إذا كان يمكن استخدام كل مصدر في وضع التدفق باستخدام الوسيط `stream=True` ✅. يعتبر وضع التدفق مفيدًا لمعالجة مقاطع الفيديو أو التدفقات الحية حيث يقوم بإنشاء مُنشئ للنتائج بدلاً من تحميل جميع الإطارات في الذاكرة. - -!!! Tip "طراز" - - استخدم `stream=True` لمعالجة مقاطع الفيديو الطويلة أو مجموعات البيانات الكبيرة لإدارة الذاكرة بكفاءة. عندما تكون القيمة مساوية لـ `stream=False`، يتم تخزين النتائج لجميع الإطارات أو نقاط البيانات في الذاكرة، والتي يمكن أن تتراكم بسرعة وتُسبِّب أخطاء الذاكرة غير الكافية للمدخلات الكبيرة. على النقيض من ذلك، يستخدم التدفق `stream=True` مولدًا يُبقي نتائج الإطار الحالي أو نقطة البيانات الحالية في الذاكرة فقط، مما يقلل بشكل كبير من استهلاك الذاكرة ويمنع مشكلات عدم كفاية الذاكرة. - -| مصدر | الوسيط | النوع | الملاحظات | -|------------------|--------------------------------------------|-----------------|----------------------------------------------------------------------------------------------| -| صورة | `'صورة.jpg'` | `str` or `Path` | ملف صورة واحدة. | -| رابط URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | رابط URL لصورة ما. | -| لقطة شاشة برمجية | `'الشاشة'` | `str` | قم بالتقاط لقطة شاشة برمجية. | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | الصيغة HWC مع قنوات RGB. | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | الصيغة HWC مع قنوات BGR `uint8 (0-255)`. | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | الصيغة HWC مع قنوات BGR `uint8 (0-255)`. | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | الصيغة BCHW مع قنوات RGB `float32 (0.0-1.0)`. | -| CSV | `'المصادر.csv'` | `str` or `Path` | ملف CSV يحتوي على مسارات الصور أو مقاطع الفيديو أو المجلدات. | -| فيديو ✅ | `'الفيديو.mp4'` | `str` or `Path` | ملف فيديو بتنسيقات مثل MP4 و AVI وما إلى ذلك. | -| الدليل ✅ | `'المسار/'` | `str` or `Path` | مسار إلى مجلد يحتوي على صور أو مقاطع فيديو. | -| glob ✅ | `'المسار/*.jpg'` | `str` | نمط glob لمطابقة عدة ملفات. استخدم حرف `*` كحرطوم. | -| يوتيوب ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | رابط URL إلى فيديو يوتيوب. | -| تدفق ✅ | `'rtsp://example.com/media.mp4'` | `str` | عنوان URL لبروتوكولات التدفق مثل RTSP و RTMP و TCP أو عنوان IP. | -| تدفق متعدد ✅ | `'list.streams'` | `str` or `Path` | ملف نصي `*.streams` مع عنوان تدفق URL في كل صف، على سبيل المثال 8 تدفقات ستعمل بحجم دُفعة 8. | - -فيما يلي أمثلة تعليمات برمجية لاستخدام كل نوع من مصدر: - -!!! Example "مصادر التنبؤ" - - === "الصورة" - قم بأجراء عملية التنبؤ على ملف صورة. - ```python - from ultralytics import YOLO - - # تحميل نموذج YOLOv8n المدرب مسبقًا - model = YOLO('yolov8n.pt') - - # تنشيط عملية التنبؤ لملف الصورة - source = 'المسار/إلى/الصورة.jpg' - - # الجمع بين التنبؤ على المصدر - results = model(source) # قائمة كائنات النتائج - ``` - - === "لقطة شاشة برمجية" - قم بأجراء عملية التنبؤ على محتوى الشاشة الحالي كلقطة شاشة. - ```python - from ultralytics import YOLO - - # تحميل نموذج YOLOv8n المدرب مسبقًا - model = YOLO('yolov8n.pt') - - # تعريف اللقطة الحالية كمصدر - source = 'الشاشة' - - # الجمع بين التنبؤ على المصدر - results = model(source) # قائمة كائنات النتائج - ``` - - === "رابط URL" - قم بأجراء عملية التنبؤ على صورة موجودة على الإنترنت أو فيديو. - ```python - from ultralytics import YOLO - - # تحميل نموذج YOLOv8n المدرب مسبقًا - model = YOLO('yolov8n.pt') - - # تعريف رابط الصورة أو الفيديو على الإنترنت - source = 'https://ultralytics.com/images/bus.jpg' - - # الجمع بين التنبؤ على المصدر - results = model(source) # قائمة كائنات النتائج - ``` - - === "PIL" - قم بأجراء عملية التنبؤ على صورة مفتوحة بواسطة مكتبة Python Imaging Library (PIL). - ```python - from PIL import Image - from ultralytics import YOLO - - # تحميل نموذج YOLOv8n المدرب مسبقًا - model = YOLO('yolov8n.pt') - - # فتح صورة باستخدام PIL - source = Image.open('المسار/إلى/الصورة.jpg') - - # الجمع بين التنبؤ على المصدر - results = model(source) # قائمة كائنات النتائج - ``` - - === "OpenCV" - قم بأجراء عملية التنبؤ على صورة مُقروءة بواسطة OpenCV. - ```python - import cv2 - from ultralytics import YOLO - - # تحميل نموذج YOLOv8n المدرب مسبقًا - model = YOLO('yolov8n.pt') - - # قراءة صورة باستخدام OpenCV - source = cv2.imread('المسار/إلى/الصورة.jpg') - - # الجمع بين التنبؤ على المصدر - results = model(source) # قائمة كائنات النتائج - ``` - - === "numpy" - قم بأجراء عملية التنبؤ على صورة مُمثلة كمصفوفة numpy. - ```python - import numpy as np - from ultralytics import YOLO - - # تحميل نموذج YOLOv8n المدرب مسبقًا - model = YOLO('yolov8n.pt') - - # إنشاء مصفوفة numpy عشوائية في صيغة HWC (640, 640, 3) بقيم بين [0, 255] ونوع uint8 - source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') - - # الجمع بين التنبؤ على المصدر - results = model(source) # قائمة كائنات النتائج - ``` - -[car spare parts]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1 - -[football player detect]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442 - -[human fall detect]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43 diff --git a/docs/ar/modes/track.md b/docs/ar/modes/track.md deleted file mode 100644 index 5300ecfb806..00000000000 --- a/docs/ar/modes/track.md +++ /dev/null @@ -1,360 +0,0 @@ ---- -comments: true -description: تعرف على كيفية استخدام Ultralytics YOLO لتتبع الكائنات في تدفقات الفيديو. أدلة لاستخدام مختلف المتتبعين وتخصيص إعدادات المتتبع. -keywords: Ultralytics، YOLO، تتبع الكائنات، تدفقات الفيديو، BoT-SORT، ByteTrack، دليل Python، دليل خط الأوامر (CLI) ---- - -# تتبع عدة كائنات باستخدام Ultralytics YOLO - -Multi-object tracking examples - -يعد تتبع الكائنات في مجال تحليل الفيديو مهمة حرجة ليس فقط في تحديد موقع وفئة الكائنات داخل الإطار، ولكن أيضًا في الحفاظ على هوية فريدة لكل كائن يتم اكتشافه مع تقدم الفيديو. تكاد التطبيقات لا تعد ولا تحصى - تتراوح من المراقبة والأمان إلى تحليل الرياضة الفورية. - -## لماذا يجب اختيار Ultralytics YOLO لتتبع الكائنات؟ - -إن مخرجات المتتبعين في Ultralytics متسقة مع كشف الكائنات القياسي ولها قيمة مضافة من هويات الكائنات. هذا يجعل من السهل تتبع الكائنات في تدفقات الفيديو وأداء التحليلات التالية. إليك لماذا يجب أن تفكر في استخدام Ultralytics YOLO لتلبية احتياجات تتبع الكائنات الخاصة بك: - -- **الكفاءة:** معالجة تدفقات الفيديو في الوقت الحقيقي دون المساومة على الدقة. -- **المرونة:** يدعم العديد من خوارزميات التتبع والتكوينات. -- **سهولة الاستخدام:** واجهة برمجة تطبيقات بسيطة للغاية وخيارات سطر الأوامر للاستدماج السريع والنشر. -- **إمكانية التخصيص:** سهل الاستخدام مع نماذج YOLO مدربة مخصصة، مما يسمح بالاكتمال في التطبيقات ذات النطاق الخاص. - -

-
- -
- شاهد: كشف الكائنات وتتبعها باستخدام Ultralytics YOLOv8. -

- -## تطبيقات في العالم الحقيقي - -| النقل | البيع بالتجزئة | الاستزراع المائي | -|:----------------------------------:|:--------------------------------:|:----------------------------:| -| ![Vehicle Tracking][vehicle track] | ![People Tracking][people track] | ![Fish Tracking][fish track] | -| تتبع المركبات | تتبع الأشخاص | تتبع الأسماك | - -## ملامح بلمحة - -يوفر Ultralytics YOLO ميزات كشف الكائنات لتوفير تتبع فعال ومتعدد الاستخدامات للكائنات: - -- **تتبع فوري:** تتبع الكائنات بسلاسة في مقاطع الفيديو ذات معدل الإطارات العالي. -- **دعم عدة متتبعين:** اختيار بين مجموعة متنوعة من خوارزميات التتبع المعتمدة. -- **تخصيص تكوينات المتتبع المتاحة:** ضبط خوارزمية التتبع لتلبية المتطلبات المحددة عن طريق ضبط مختلف المعلمات. - -## متتبعون متاحون - -يدعم Ultralytics YOLO الخوارزميات التالية للتتبع. يمكن تمكينها عن طريق تمرير ملف تكوين YAML ذي الصلة مثل "tracker=tracker_type.yaml": - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - استخدم `botsort.yaml` لتمكين هذا المتتبع. -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - استخدم `bytetrack.yaml` لتمكين هذا المتتبع. - -المتتبع الافتراضي هو BoT-SORT. - -## تتبع - -لتشغيل المتتبع على تدفقات الفيديو، استخدم نموذج تحديد (Detect) أو قطع (Segment) أو وضع (Pose) مدرب مثل YOLOv8n و YOLOv8n-seg و YOLOv8n-pose. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل نموذج رسمي أو مخصص - model = YOLO('yolov8n.pt') # قم بتحميل نموذج رسمي Detect - model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي Segment - model = YOLO('yolov8n-pose.pt') # قم بتحميل نموذج رسمي Pose - model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص مدرب - - # قم بتنفيذ التتبع باستخدام النموذج - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # التتبع باستخدام المتتبع الافتراضي - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # التتبع باستخدام متتبع ByteTrack - ``` - - === "CLI" - - ```bash - # قم بتنفيذ التتبع باستخدام مختلف النماذج باستخدام واجهة سطر الأوامر - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Detect رسمي - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Segment رسمي - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Pose رسمي - yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # تم تدريب نموذج مخصص - - # تتبع عن طريق ByteTrack متتبع - yolo track model=path/to/best.pt tracker="bytetrack.yaml" - ``` - -كما يظهر في الاستخدام أعلاه، يتوفر التتبع لجميع نماذج Detect و Segment و Pose التي تعمل على مقاطع الفيديو أو مصادر البث. - -## الاعدادات - -### معاملات التتبع - -تتشارك إعدادات التتبع الخصائص مع وضع التوقعات (Predict)، مثل `conf` و `iou` و `show`. للحصول على مزيد من التكوينات، راجع صفحة النموذج [Predict](../modes/predict.md#inference-arguments). - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتكوين معلمات التتبع وقم بتشغيل التتبع - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # قم بتكوين معلمات التتبع وقم بتشغيل التتبع باستخدام واجهة سطر الأوامر - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### اختيار المتتبع - -يتيح لك Ultralytics أيضًا استخدام ملف تكوين متتبع معدل. للقيام بذلك، أنقل نسخة من ملف تكوين المتتبع (مثل `custom_tracker.yaml`) من [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) وقم بتعديل أي تكوينات (باستثناء `tracker_type`) حسب احتياجاتك. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل النموذج وتشغيل التتبع باستخدام ملف تكوين مخصص - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # قم بتحميل النموذج وتشغيل التتبع باستخدام ملف تكوين مخصص باستخدام واجهة سطر الأوامر - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -للحصول على قائمة شاملة من وسائط تتبع، راجع الصفحة [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers). - -## أمثلة Python - -### الحفاظ على المسارات التكرارية - -فيما يلي سكريبت Python باستخدام OpenCV (cv2) و YOLOv8 لتشغيل تتبع الكائنات على إطارات الفيديو. يفترض هذا السكريبت أنك قد قمت بالفعل بتثبيت الحزم اللازمة (opencv-python و ultralytics). المعامل `persist=True` يخبر المتتبع أن الصورة الحالية أو الإطار التالي في التسلسل ومن المتوقع أن يتوفر مسارات من الصورة السابقة في الصورة الحالية. - -!!! Example "For-loop للتدفق مع التتبع" - - ```python - import cv2 - from ultralytics import YOLO - - # حمّل نموذج YOLOv8 - model = YOLO('yolov8n.pt') - - # افتح ملف الفيديو - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # تحلق عبر إطارات الفيديو - while cap.isOpened(): - # قراءة الإطار من الفيديو - success, frame = cap.read() - - if success: - # تشغيل تتبع YOLOv8 على الإطار ، وحفظ المسارات بين الإطارات - results = model.track(frame, persist=True) - - # تصور النتائج على الإطار - annotated_frame = results[0].plot() - - # عرض الإطار المعلق - cv2.imshow("YOLOv8 Tracking", annotated_frame) - - # كسر اللوب في حالة الضغط على 'q' - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # كسر اللوب في نهاية الفيديو - break - - # إطلاق كائن التقاط الفيديو وإغلاق نافذة العرض - cap.release() - cv2.destroyAllWindows() - ``` - -يرجى ملاحظة التغيير من `model(frame)` إلى `model.track(frame)` ، مما يمكن التتبع بدلاً من الكشف البسيط. سيتم تشغيل البرنامج المعدل على كل إطار فيديو وتصور النتائج وعرضها في نافذة. يمكن الخروج من الحلقة عن طريق الضغط على 'q'. - -### رسم المسارات عبر الوقت - -يمكن أن يوفر رسم المسارات الكائنية عبر الإطارات المتتالية إشارات قيمة حول أنماط الحركة والسلوك للكائنات المكتشفة في الفيديو. باستخدام Ultralytics YOLOv8 ، يعد تصوير هذه المسارات عملية سلسة وفعالة. - -في المثال التالي ، نوضح كيفية استخدام قدرات يوكو 8 YOLO لتتبع الكائنات لرسم حركة الكائنات المكتشفة عبر إطارات الفيديو المتعددة. يتضمن هذا البرنامج فتح ملف فيديو وقراءته إطارًا بإطار ، واستخدام نموذج YOLO لتحديد وتتبع العديد من الكائنات. عن طريق الاحتفاظ بنقاط الوسط لمربعات الحدود المكتشفة وتوصيلها ، يمكننا رسم خطوط تمثل المسارات التي تم اتباعها بواسطة الكائنات التي تمت متابعتها. - -!!! Example "رسم المسارات عبر إطارات الفيديو المتعددة" - - ```python - from collections import defaultdict - - import cv2 - import numpy as np - - from ultralytics import YOLO - - # حمّل نموذج YOLOv8 - model = YOLO('yolov8n.pt') - - # افتح ملف الفيديو - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # احفظ تاريخ المسارات - track_history = defaultdict(lambda: []) - - # تحلق عبر إطارات الفيديو - while cap.isOpened(): - # قراءة الإطار من الفيديو - success, frame = cap.read() - - if success: - # تشغيل تتبع YOLOv8 على الإطار ، وحفظ المسارات بين الإطارات - results = model.track(frame, persist=True) - - # الحصول على المربعات ومعرفات المسار - boxes = results[0].boxes.xywh.cpu() - track_ids = results[0].boxes.id.int().cpu().tolist() - - # تصور النتائج على الإطار - annotated_frame = results[0].plot() - - # رسم المسارات - for box, track_id in zip(boxes, track_ids): - x, y, w, h = box - track = track_history[track_id] - track.append((float(x), float(y))) # x, y نقطة الوسط - if len(track) > 30: # احتفظ بـ 90 مسارًا لـ 90 إطارًا - track.pop(0) - - # رسم خطوط التتبع - points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2)) - cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10) - - # عرض الإطار المعلق - cv2.imshow("YOLOv8 Tracking", annotated_frame) - - # كسر اللوب في حالة الضغط على 'q' - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # كسر اللوب في نهاية الفيديو - break - - # إطلاق كائن التقاط الفيديو وإغلاق نافذة العرض - cap.release() - cv2.destroyAllWindows() - ``` - -### التتبع متعدد الخيوط - -يوفر التتبع متعدد الخيوط القدرة على تشغيل تتبع الكائنات على عدة تدفقات فيديو في وقت واحد. هذا مفيد بشكل خاص عند التعامل مع مدخلات فيديو متعددة ، مثل من كاميرات المراقبة المتعددة ، حيث يمكن أن يعزز المعالجة المتزامنة الكفاءة والأداء بشكل كبير. - -في السكريبت البايثون المقدم ، نستخدم وحدة `threading` في Python لتشغيل عدة نسخ متزامنة من المتتبع. يكون لكل موضوع مسؤولية تشغيل المتتبع على ملف فيديو واحد ، وتعمل جميع الخيوط في الخلفية في نفس الوقت. - -للتأكد من أن كل خيط يتلقى المعلمات الصحيحة (ملف الفيديو والنموذج المستخدم وفهرس الملف) ، نحدد وظيفة `run_tracker_in_thread` التي تقبل هذه المعلمات وتحتوي على حلقة المتابعة الرئيسية. هذه الوظيفة تقرأ إطار الفيديو الخاصة بالفيديو مباشرة من مصدر الملف الواحد ، وتشغيل المتتبع ، وعرض النتائج. - -تستخدم في هذا المثال نموذجين مختلفين: 'yolov8n.pt' و 'yolov8n-seg.pt' ، يقوم كل منهما بتتبع الكائنات في ملف فيديو مختلف. تم تحديد ملفات الفيديو في `video_file1` و `video_file2`. - -تعديل معلمات `daemon=True` في `threading.Thread` يعني أن هذه الخيوط ستتم إغلاقها بمجرد انتهاء البرنامج الرئيسي. ثم نبدأ الخيوط باستخدام `start ()` واستخدم `join ()` لجعل الخيط الرئيسي ينتظر حتى ينتهي خيطي المتتبع. - -أخيرًا ، بعد اكتمال جميع الخيوط لمهمتها ، يتم إغلاق النوافذ التي تعرض النتائج باستخدام `cv2.destroyAllWindows()`. - -!!! Example "Streaming for-loop with tracking" - - ```python - import threading - import cv2 - from ultralytics import YOLO - - - def run_tracker_in_thread(filename, model, file_index): - """ - يشغل ملف فيديو أو مصدر تيار الكاميرا بالتزامن مع YOLOv8 النموذج باستخدام تعدد الخيوط. - - هذه الوظيفة تلتقط إطارات الفيديو من ملف أو مصدر الكاميرا المعروف ، وتستخدم نموذج YOLOv8 لتتبع الكائنات. - يعمل البرنامج في خيطه الخاص للمعالجة المتزامنة. - - Args: - filename (str): مسار ملف الفيديو أو معرف مصدر كاميرا الويب / خارجية. - model (obj): كائن نموذج YOLOv8. - file_index (int): مؤشر لتحديد الملف بشكل فريد ، يُستخدم لأغراض العرض. - - ملاحظة: - اضغط على 'q' لإنهاء نافذة عرض الفيديو. - """ - video = cv2.VideoCapture(filename) # قراءة ملف الفيديو - - while True: - ret, frame = video.read() # قراءة إطارات الفيديو - - # إنهاء الدورة إذا لم يتبقى إطارات على الفيديوين - if not ret: - break - - # تتبع كائنات في الإطارات إذا توفرت - results = model.track(frame, persist=True) - res_plotted = results[0].plot() - cv2.imshow(f"Tracking_Stream_{file_index}", res_plotted) - - key = cv2.waitKey(1) - if key == ord('q'): - break - - # إطلاق مصدري الفيديو - video.release() - - - # حمّل النماذج - model1 = YOLO('yolov8n.pt') - model2 = YOLO('yolov8n-seg.pt') - - # حدد ملفات الفيديو للمتابعين - video_file1 = "path/to/video1.mp4" # مسار ملف الفيديو ، 0 لكاميرا الويب - video_file2 = 0 # مسار ملف الفيديو ، 0 لكاميرا الويب ، 1 لكاميرا خارجية - - # إنشاء خيوط المتابع - tracker_thread1 = threading.Thread(target=run_tracker_in_thread, args=(video_file1, model1 ,1), daemon=True) - tracker_thread2 = threading.Thread(target=run_tracker_in_thread, args=(video_file2, model2, 2), daemon=True) - - # بدء خيوط المتابع - tracker_thread1.start() - tracker_thread2.start() - - # انتظر حتى ينتهي خيط المتابع - tracker_thread1.join() - tracker_thread2.join() - - # Clean up and close windows - cv2.destroyAllWindows() - ``` - -يمكن بسهولة توسيع هذا المثال للتعامل مع ملفات فيديو ونماذج أخرى من خلال إنشاء مزيد من الخيوط وتطبيق نفس المنهجية. - -## المساهمة في المتتبعون الجديدون - -هل أنت ماهر في التتبع متعدد الكائنات وقد نفذت أو صيغت بنجاح خوارزمية تتبع باستخدام Ultralytics YOLO؟ ندعوك للمشاركة في قسم المتتبعين لدينا في [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)! قد تكون التطبيقات في العالم الحقيقي والحلول التي تقدمها لا تقدر بثمن للمستخدمين العاملين على مهام التتبع. - -من خلال المساهمة في هذا القسم ، تساعد في توسيع نطاق حلول التتبع المتاحة في إطار Ultralytics YOLO ، مضيفًا طبقة أخرى من الوظائف والفعالية للمجتمع. - -لبدء المساهمة ، يرجى الرجوع إلى [دليل المساهمة الخاص بنا](https://docs.ultralytics.com/help/contributing) للحصول على تعليمات شاملة حول تقديم طلب سحب (PR) 🛠️. نتطلع بشكل كبير إلى ما ستجلبه للطاولة! - -لنعزز معًا قدرات عملية التتبع لأجهزة Ultralytics YOLO 🙏! - -[vehicle track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab - -[people track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527 - -[fish track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142 diff --git a/docs/ar/modes/train.md b/docs/ar/modes/train.md deleted file mode 100644 index 54881f11a80..00000000000 --- a/docs/ar/modes/train.md +++ /dev/null @@ -1,286 +0,0 @@ ---- -comments: true -description: دليل خطوة بخطوة لتدريب نماذج YOLOv8 باستخدام Ultralytics YOLO بما في ذلك أمثلة على التدريب باستخدام بطاقة رسومات منفصلة ومتعددة البطاقات الرسومية -keywords: Ultralytics، YOLOv8، YOLO، كشف الكائنات، وضع تدريب، مجموعة بيانات مخصصة، تدريب بطاقة رسومات، متعددة البطاقات الرسومية، معلمات تكبير، أمثلة سطر الأوامر، أمثلة بايثون ---- - -# تدريب النموذج باستخدام Ultralytics YOLO - -بيئة ومدمجات Ultralytics YOLO - -## المقدمة - -يتضمن تدريب نموذج التعلم العميق تزويده بالبيانات وضبط معلماته بحيث يتمكن من إجراء توقعات دقيقة. يتم تصميم وضع التدريب في Ultralytics YOLOv8 لتدريب فعال وفعال لنماذج كشف الكائنات، مستغلاً تمامًا إمكانات الأجهزة الحديثة. يهدف هذا الدليل إلى شرح جميع التفاصيل التي تحتاج إلى البدء في تدريب النماذج الخاصة بك باستخدام مجموعة متينة من ميزات YOLOv8. - -

-
- -
- شاهد: كيفية تدريب نموذج YOLOv8 على مجموعة البيانات المخصصة الخاصة بك في Google Colab. -

- -## لماذا اختيار Ultralytics YOLO للتدريب؟ - -إليك بعض الأسباب المقنعة لاختيار وضع التدريب في YOLOv8: - -- **الكفاءة:** استفد إلى أقصى حد من الأجهزة الخاصة بك، سواء كنت تستخدم بطاقة رسومات واحدة أو توسيعها عبر عدة بطاقات رسومات. -- **تعدد الاستخدامات:** قم بالتدريب على مجموعات البيانات المخصصة بالإضافة إلى المجموعات المتاحة بسهولة مثل COCO و VOC و ImageNet. -- **سهل الاستخدام:** واجهة سطر الأوامر CLI وواجهة Python البسيطة والقوية لتجربة تدريب مباشرة. -- **مرونة المعلمات:** مجموعة واسعة من المعلمات القابلة للتخصيص لضبط أداء النموذج. - -### الميزات الرئيسية لوضع التدريب - -تتمثل الميزات البارزة لوضع التدريب في YOLOv8 في ما يلي: - -- **تنزيل مجموعة البيانات تلقائيًا:** تقوم مجموعات البيانات القياسية مثل COCO و VOC و ImageNet بالتنزيل تلقائيًا عند أول استخدام. -- **دعم متعدد البطاقات الرسومية:** قم بتوزيع العمليات التدريبية بسلاسة عبر عدة بطاقات رسومات لتسريع العملية. -- **ضبط المعلمات:** الخيار لتعديل المعلمات التكبير من خلال ملفات تكوين YAML أو وسائط سطر الأوامر. -- **مراقبة وتتبع:** تتبع في الوقت الفعلي لمقاييس التدريب وتصور عملية التعلم لتحقيق رؤى أفضل. - -!!! Example "نصيحة" - - * يتم تنزيل مجموعات YOLOv8 القياسية مثل COCO و VOC و ImageNet وغيرها تلقائيًا عند الاستخدام الأول، على سبيل المثال: `yolo train data=coco.yaml` - -## أمثلة استخدام - -تدريب YOLOv8n على مجموعة بيانات COCO128 لمدة 100 حقبة بحجم صورة 640. يمكن تحديد جهاز التدريب باستخدام الوسيطة `device`. إذا لم يتم تمرير وسيطة، سيتم استخدام الجهاز بطاقة الرسومات "device=0" إذا كانت متاحة، وإلا سيتم استخدام `device=cpu`. استعرض الجدول الزمني أدناه للحصول على قائمة كاملة بوسائط التدريب. - -!!! Example "أمثلة سطر الأوامر للتدريب باستخدام بطاقة رسومات مستقلة ومعالج مركزي" - - يتم تحديد الجهاز تلقائيًا. إذا كانت بطاقة رسومات متاحة، سيتم استخدامها، وإلا ستبدأ التدريب على المعالج المركزي. - - === "بايثون" - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('yolov8n.yaml') # إنشاء نموذج جديد من ملف YAML - model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # إنشاء من ملف YAML ونقل الأوزان - - # تدريب النموذج - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "سطر الأوامر" - ```bash - # إنشاء نموذج جديد من ملف YAML وبدء التدريب من البداية - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # بدء التدريب من نموذج *.pt مدرب مسبقًا - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # إنشاء نموذج جديد من ملف YAML ونقل الأوزان المدربة مسبقًا وبدء التدريب - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### التدريب متعدد البطاقات الرسومية - -يتيح التدريب متعدد البطاقات الرسومية استخدام الموارد الأجهزة المتاحة بكفاءة أكبر من خلال توزيع أعباء التدريب عبر عدة بطاقات رسومية. هذه الميزة متاحة من خلال واجهة برمجة التطبيقات باستخدام Python وسطر الأوامر. لتمكين التدريب متعدد البطاقات الرسومية، حدد معرفات أجهزة GPU التي ترغب في استخدامها. - -!!! Example "أمثلة على التدريب متعدد البطاقات الرسومية" - - للتدريب باستخدام أجهزتي GPU، جهاز CUDA 0 و 1، استخدم الأوامر التالية. قم بتوسيعها لاستخدام المزيد من البطاقات. - - === "بايثون" - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب) - - # تدريب النموذج بأجهزة GPU 2 - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "سطر الأوامر" - ```bash - # بدء التدريب من نموذج *.pt مدرب مسبقًا باستخدام بطاقات GPU 0 و 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### التدريب باستخدام Apple M1 و M2 MPS - -مع دعم شرائح Apple M1 و M2 المدمج في نماذج Ultralytics YOLO، يمكنك الآن تدريب نماذجك على الأجهزة التي تستخدم نظام Metal Performance Shaders (MPS) القوي. يوفر MPS طريقة عالية الأداء لتنفيذ المهام الحسابية ومعالجة الصور على شرائح السيليكون المخصصة لعبة Apple. - -لتمكين التدريب على شرائح Apple M1 و M2، يجب عليك تحديد "mps" كجهازك عند بدء عملية التدريب. فيما يلي مثال لكيفية القيام بذلك في بايثون وعبر سطر الأوامر: - -!!! Example "مثال على التدريب بواسطة MPS" - - === "بايثون" - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب) - - # تدريب النموذج باستخدام 2 بطاقات GPU - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "سطر الأوامر" - ```bash - # بدء التدريب من نموذج *.pt مدرب مسبقًا باستخدام بطاقات GPU 0 و 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -عند الاستفادة من قدرة المعالجة الحاسوبية لشرائح M1/M2، يتيح لك هذا الحمل أداءً أكثر كفاءة لمهام التدريب. للحصول على إرشادات أكثر تفصيلاً وخيارات تكوين متقدمة، يرجى الرجوع إلى [وثائق PyTorch MPS](https://pytorch.org/docs/stable/notes/mps.html). - -### استئناف التدريب المقطوع - -يعتبر استئناف التدريب من الحالات التخزين السابقة ميزة حاسمة عند العمل مع نماذج التعلم العميق. يمكن أن يكون هذا مفيدًا في العديد من السيناريوهات، مثل عند تعطل عملية التدريب بشكل غير متوقع، أو عند الرغبة في متابعة تدريب نموذج بيانات جديدة أو لفترة زمنية أطول. - -عند استئناف التدريب، يقوم Ultralytics YOLO بتحميل الأوزان من آخر نموذج محفوظ وأيضًا استعادة حالة المحسن، وجدولة معدل التعلم، وعدد الحقبة. هذا يتيح لك متابعة عملية التدريب بشكل سلس من حيث توقفت. - -يمكنك بسهولة استئناف التدريب في Ultralytics YOLO عن طريق تعيين الوسيطة `resume` إلى `True` عند استدعاء طريقة `train`، وتحديد المسار إلى ملف `.pt` الذي يحتوي على أوزان النموذج المدرب جزئيًا. - -فيما يلي مثال لكيفية استئناف تدريب مقطوع باستخدام بايثون وعبر سطر الأوامر: - -!!! Example "مثال على استئناف التدريب" - - === "بايثون" - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('path/to/last.pt') # تحميل نموذج مدرب جزئيًا - - # استئناف التدريب - results = model.train(resume=True) - ``` - - === "سطر الأوامر" - ```bash - # استئناف تدريب متقطع - yolo train resume model=path/to/last.pt - ``` - -من خلال تعيين `resume=True`، ستواصل وظيفة 'train' التدريب من حيث توقفت، باستخدام الحالة المخزنة في ملف 'path/to/last.pt'. إذا تم حذف الوسيطة `resume` أو تعيينها على `False`، ستبدأ وظيفة 'train' جلسة تدريب جديدة. - -تذكر أنه يتم حفظ نقاط التفتيش في نهاية كل حقبة افتراضياً، أو في فترة ثابتة باستخدام وسيطة 'save_period'، لذا يجب عليك إتمام حقبة واحدة على الأقل لاستئناف تشغيل تدريب. - -## الوسائط - -تتعلق إعدادات التدريب لنماذج YOLO بالمعلمات والتكوينات المختلفة المستخدمة لتدريب النموذج على مجموعة بيانات ما. يمكن أن تؤثر هذه الإعدادات على أداء النموذج وسرعته ودقته. تتضمن بعض إعدادات YOLO التدريب الشائعة حجم الدُفعات، معدل التعلم، الزخم، والتقليل القيمي للأوزان. العوامل الأخرى التي قد تؤثر في عملية التدريب تشمل اختيار المحسن، اختيار دالة الخسارة، وحجم وتركيب مجموعة البيانات التدريب. من المهم ضبط وتجربة هذه الإعدادات بعناية لتحقيق أفضل أداء ممكن لمهمة معينة. - -| المفتاح | القيمة | الوصف | -|-------------------|----------|---------------------------------------------------------------------------------------------------------------------------| -| `model` | `None` | مسار إلى ملف النموذج، على سبيل المثال yolov8n.pt، yolov8n.yaml | -| `data` | `None` | مسار إلى ملف البيانات، على سبيل المثال coco128.yaml | -| `epochs` | `100` | عدد الحقب للتدريب ل | -| `patience` | `50` | حقب للانتظار بدون تحسن ظاهر لإيقاف التدريب مبكرا | -| `batch` | `16` | عدد الصور في كل دُفعة (-1 for AutoBatch) | -| `imgsz` | `640` | حجم الصور الدخل بصورة مثالية | -| `save` | `True` | حال إنقاذ النقاط المفتوحة للتدريب ونتائج الكشف | -| `save_period` | `-1` | حفظ النقطة الفاصلة كل x حقبة (تكون معطلة إذا كانت < 1) | -| `cache` | `False` | صحيح / ذاكرة عشوائية أو قرص / غير صحيح. استخدم ذاكرة التخزين المؤقت في تحميل البيانات | -| `device` | `None` | الجهاز لتشغيل التدريب عليه، على سبيل المثال جهاز الرسومات cuda=0 أو جهاز الرسومات cuda=0,1,2,3 أو جهاز المعالج المركزيcpu | -| `workers` | `8` | عدد خيوط العاملة لتحميل البيانات (لكل RANK إذا كان DDP) | -| `project` | `None` | اسم المشروع | -| `name` | `None` | اسم التجربة | -| `exist_ok` | `False` | ما إذا كان سيتم الكتابة فوق تجربة موجودة | -| `pretrained` | `True` | (bool أو str) ما إذا كان سيتم استخدام نموذج متدرب مسبقًا (bool) أو نموذج لتحميل الأوزان منه (str) | -| `optimizer` | `'auto'` | المحسن لاستخدامه، الخيارات=[SGD، Adam، Adamax، AdamW، NAdam، RAdam، RMSProp، Auto] | -| `verbose` | `False` | ما إذا كان سيتم طباعة مخرجات مفصلة | -| `seed` | `0` | البذرة العشوائية لإعادة الإنتاجية | -| `deterministic` | `True` | ما إذا كان يتم تمكين الوضع المحدد | -| `single_cls` | `False` | يجب تدريب بيانات متعددة الفئات كفئة واحدة | -| `rect` | `False` | تدريب مستطيل باستخدام تجميع الدُفعات للحد الأدنى من الحشو | -| `cos_lr` | `False` | استخدم جدولة معدل التعلم بتوقيت الكوسا | -| `close_mosaic` | `10` | (int) تعطيل التكبير التجانبي للحجم للحقب النهائية (0 للتعطيل) | -| `resume` | `False` | استأنف التدريب من النقطة الأخيرة | -| `amp` | `True` | تدريب دقة مختلطة تلقائية (AMP)، الخيارات=[True، False] | -| `fraction` | `1.0` | نسبة مجموعة البيانات المراد تدريبها (الافتراضي هو 1.0، جميع الصور في مجموعة التدريب) | -| `profile` | `False` | قم بتشغيل بروفايل السرعة لمشغلات ONNX و TensorRT أثناء التدريب للمسجلات | -| `freeze` | `None` | (int أو list، اختياري) تجميد أول n طبقة، أو قائمة طبقات الفهرس خلال التدريب | -| `lr0` | `0.01` | معدل التعلم الأولي (على سبيل المثال SGD=1E-2، Adam=1E-3) | -| `lrf` | `0.01` | معدل التعلم النهائي (lr0 * lrf) | -| `momentum` | `0.937` | الزخم SGD / Adam beta1 | -| `weight_decay` | `0.0005` | تقليل الأوزان للمحسن (5e-4) | -| `warmup_epochs` | `3.0` | حقب الاحماء (الأجزاء المئوية مقبولة) | -| `warmup_momentum` | `0.8` | الزخم الأولي للتدفق الأعلى | -| `warmup_bias_lr` | `0.1` | نسبة تعلم الانحياز الأولي للتدفق العلوي | -| `box` | `7.5` | وزن فاقد الصندوق | -| `cls` | `0.5` | وزن فاقد التصنيف (تناسب مع البكسل) | -| `dfl` | `1.5` | وزن الخسارة الأمامية للتصنيف والصندوق | -| `pose` | `12.0` | وزن فاقد الوضع (الوضع فقط) | -| `kobj` | `2.0` | وزن فاقد نقطة المفتاح (الوضع فقط) | -| `label_smoothing` | `0.0` | التسوية الغموض (كسر) | -| `nbs` | `64` | حجم الدُفعة الاسمي | -| `overlap_mask` | `True` | التحجيم يجب أن يتداخل أقنعة التدريب (التدريب الفصلي فقط) | -| `mask_ratio` | `4` | معدل تحجيم أقنعة (التدريب الفصلي فقط) | -| `dropout` | `0.0` | استخدام تنظيم الإسقاط (التدريب التطبيقي فقط) | -| `val` | `True` | التحقق/الاختبار خلال التدريب | - -## تسجيل - -عند تدريب نموذج YOLOv8، قد تجد أنه من المفيد تتبع أداء النموذج مع مرور الوقت. هنا يأتي دور تسجيل. يوفر Ultralytics' YOLO دعمًا لثلاثة أنواع من أجهزة السجل - Comet و ClearML و TensorBoard. - -لاستخدام سجل، حدده من قائمة السحب أسفل الكود وقم بتشغيله. سيتم تثبيت السجل المختار وتهيئته. - -### Comet - -[Comet](../../../integrations/comet.md) هو منصة تسمح لعلماء البيانات والمطورين بمتابعة ومقارنة وشرح وتحسين التجارب والنماذج. يوفر وظائف مثل المقاييس الزمنية في الوقت الحقيقي وفروقات الشفرة وتتبع المعلمات. - -لاستخدام Comet: - -!!! Example "أمثلة بايثون" - - === "بايثون" - ```python - # pip install comet_ml - import comet_ml - - comet_ml.init() - ``` - -تذكر تسجيل الدخول إلى حسابك في Comet على موقعهم على الويب والحصول على مفتاح API الخاص بك. ستحتاج إلى إضافته إلى الإعدادات المتغيرة في البيئة الخاصة بك أو برنامج النص الخاص بك لتسجيل التجارب الخاصة بك. - -### ClearML - -[ClearML](https://www.clear.ml/) هي منصة مفتوحة المصدر تعمل على تتبع التجارب وتسهيل مشاركة الموارد بكفاءة. تم تصميمه لمساعدة الفرق في إدارة وتنفيذ وإعادة إنتاج عملهم في مجال تعلم الآلة بكفاءة أكبر. - -لاستخدام ClearML: - -!!! Example "أمثلة بايثون" - - === "بايثون" - ```python - # pip install clearml - import clearml - - clearml.browser_login() - ``` - -بعد تشغيل هذا السكريبت، ستحتاج إلى تسجيل الدخول إلى حساب ClearML الخاص بك على المستعرض ومصادقة جلستك. - -## TensorBoard - -[TensorBoard](https://www.tensorflow.org/tensorboard) هي مجموعة أدوات لتصور TensorFlow ، تسمح لك بتصور نموذج TensorFlow الخاص بك ، ورسم المقاييس الكمية حول تنفيذ النموذج الخاص بك ، وعرض بيانات إضافية مثل الصور التي تمر عبرها. - -للاستفادة من TensorBoard في [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): - -!!! Example "أمثلة سطر الأوامر" - - === "سطر الأوامر" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # استبدل بالدليل 'runs' - ``` - -لاستخدام TensorBoard محليًا، قم بتشغيل الأمر أدناه واعرض النتائج على الرابط http://localhost:6006/. - -!!! Example "أمثلة سطر الأوامر" - - === "سطر الأوامر" - ```bash - tensorboard --logdir ultralytics/runs # استبدل بالدليل 'runs' - ``` - -سيتم تحميل TensorBoard وتوجيهه إلى الدليل الذي يتم حفظ سجلات التدريب فيه. - -بعد إعداد السجل الخاص بك، يمكنك الاستمرار في تدريب النموذج. سيتم سجل جميع مقاييس التدريب تلقائيًا في المنصة التي اخترتها، ويمكنك الوصول إلى هذه السجلات لمراقبة أداء النموذج الخاص بك مع مرور الوقت ومقارنة نماذج مختلفة وتحديد المجالات التي يمكن تحسينها. diff --git a/docs/ar/modes/val.md b/docs/ar/modes/val.md deleted file mode 100644 index ed954326fd8..00000000000 --- a/docs/ar/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: دليل لاختبار نماذج YOLOv8 الصحيحة. تعرف على كيفية تقييم أداء نماذج YOLO الخاصة بك باستخدام إعدادات ومقاييس التحقق من الصحة مع أمثلة برمجية باللغة البايثون وواجهة سطر الأوامر. -keywords: Ultralytics, YOLO Docs, YOLOv8, التحقق من الصحة, تقييم النموذج, المعلمات الفرعية, الدقة, المقاييس, البايثون, واجهة سطر الأوامر ---- - -# التحقق من النماذج باستخدام Ultralytics YOLO - -بيئة النظام البيئي والتكاملات لـ Ultralytics YOLO - -## مقدمة - -يعتبر التحقق من النموذج خطوة حاسمة في خط أنابيب التعلم الآلي، حيث يتيح لك تقييم جودة النماذج المدربة. يوفر وضع الـ Val في Ultralytics YOLOv8 مجموعة أدوات ومقاييس قوية لتقييم أداء نماذج الكشف عن الكائنات الخاصة بك. يعمل هذا الدليل كمصدر كامل لفهم كيفية استخدام وضع الـ Val بشكل فعال لضمان أن نماذجك دقيقة وموثوقة. - -## لماذا يوفر Ultralytics YOLO التحقق من الصحة - -هنا هي الأسباب التي تجعل استخدام وضع الـ Val في YOLOv8 مفيدًا: - -- **الدقة:** الحصول على مقاييس دقيقة مثل mAP50 و mAP75 و mAP50-95 لتقييم نموذجك بشكل شامل. -- **الراحة:** استخدم الميزات المدمجة التي تتذكر إعدادات التدريب، مما يبسط عملية التحقق من الصحة. -- **مرونة:** قم بالتحقق من النموذج باستخدام نفس المجموعات البيانات وأحجام الصور أو مجموعات بيانات وأحجام صور مختلفة. -- **ضبط المعلمات الفرعية:** استخدم المقاييس التحقق لضبط نموذجك لتحسين الأداء. - -### الميزات الرئيسية لوضع الـ Val - -هذه هي الوظائف المميزة التي يوفرها وضع الـ Val في YOLOv8: - -- **الإعدادات التلقائية:** يتذكر النماذج إعدادات التدريب الخاصة بها للتحقق من الصحة بسهولة. -- **دعم متعدد المقاييس:** قيم نموذجك بناءً على مجموعة من مقاييس الدقة. -- **واجهة سطر الأوامر وواجهة برمجة Python:** اختر بين واجهة سطر الأوامر أو واجهة برمجة Python حسب تفضيلك للتحقق من الصحة. -- **توافق البيانات:** يعمل بسلاسة مع مجموعات البيانات المستخدمة خلال مرحلة التدريب بالإضافة إلى مجموعات البيانات المخصصة. - -!!! Tip "نصيحة" - - * تتذكر نماذج YOLOv8 إعدادات التدريب تلقائيًا، لذا يمكنك التحقق من النموذج بنفس حجم الصورة وعلى مجموعة البيانات الأصلية بسهولة باستخدام "yolo val model=yolov8n.pt" أو "model('yolov8n.pt').val()" - -## أمثلة الاستخدام - -تحقق من دقة النموذج المدرب YOLOv8n على مجموعة بيانات COCO128. لا يلزم تمرير أي وسيطة كوسيطة يتذكر الـ model التدريب والوسيطات كسمات النموذج. انظر الجدول أدناه للحصول على قائمة كاملة من وسيطات التصدير. - -!!! Example "مثال" - - === "البايثون" - - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('yolov8n.pt') # تحميل النموذج الرسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مخصص - - # التحقق من النموذج - metrics = model.val() # لا يلزم أي وسيطات، يتذكر التكوين والوسيطات - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # قائمة تحتوي على map50-95 لكل فئة - ``` - === "واجهة سطر الأوامر" - - ```bash - yolo detect val model=yolov8n.pt # تجريب نموذج رسمي - yolo detect val model=path/to/best.pt # تجٌَرب نموذج مخصص - ``` - -## الوسيطات - -تشير إعدادات التحقق بالنسبة لنماذج YOLO إلى المعلمات الفرعية والتكوينات المختلفة المستخدمة لتقييم أداء النموذج على مجموعة بيانات التحقق. هذه الإعدادات يمكن أن تؤثر على أداء النموذج وسرعته ودقته. تشمل بعض إعدادات التحقق الشائعة في YOLO حجم الدفعة وتكرارات تنفيذ التحقق أثناء التدريب والمقاييس المستخدمة لتقييم أداء النموذج. العوامل الأخرى التي قد تؤثر على العملية الخاصة بالتحقق تشمل حجم وتركيب مجموعة البيانات التحقق والمهمة المحددة التي يتم استخدام النموذج فيها. من المهم ضبط هذه الإعدادات وتجربتها بعناية لضمان أداء جيد للنموذج على مجموعة بيانات التحقق وكشف ومنع الحالة التي يتم فيها ضبط الطراز بشكل جيد. - -| مفتاح | القيمة | الوصف | -|---------------|---------|------------------------------------------------------------------------------------| -| `data` | `None` | مسار إلى ملف البيانات، على سبيل المثال coco128.yaml | -| `imgsz` | `640` | حجم الصور الداخلية باعتبارها عدد صحيح | -| `batch` | `16` | عدد الصور لكل دفعة (-1 للدفع الآلي) | -| `save_json` | `False` | حفظ النتائج في ملف JSON | -| `save_hybrid` | `False` | حفظ النسخة المختلطة للتسميات (التسميات + التنبؤات الإضافية) | -| `conf` | `0.001` | حد الثقة في كشف الكائن | -| `iou` | `0.6` | حد تداخل على المتحدة (IoU) لعملية الجمع والطرح | -| `max_det` | `300` | العدد الأقصى من الكشفات لكل صورة | -| `half` | `True` | استخدم التنصت نصف الدقة (FP16) | -| `device` | `None` | الجهاز الذي يتم تشغيله عليه، على سبيل المثال جهاز Cuda=0/1/2/3 أو جهاز=معالج (CPU) | -| `dnn` | `False` | استخدم OpenCV DNN لعملية التنصت الأمثل | -| `plots` | `False` | إظهار الرسوم البيانية أثناء التدريب | -| `rect` | `False` | تحقق صيغة *rectangular* مع تجميع كل دفعة للحصول على الحد الأدنى من التعبئة | -| `split` | `val` | اختر تقسيم البيانات للتحقق من الصحة، على سبيل المثال "val"، "test" أو "train" | -| diff --git a/docs/ar/quickstart.md b/docs/ar/quickstart.md deleted file mode 100644 index 0b182193532..00000000000 --- a/docs/ar/quickstart.md +++ /dev/null @@ -1,326 +0,0 @@ ---- -comments: true -description: استكشف أساليب مختلفة لتثبيت Ultralytics باستخدام pip و conda و git و Docker. تعرّف على كيفية استخدام Ultralytics مع واجهة سطر الأوامر أو ضمن مشاريع Python الخاصة بك. -keywords: تثبيت Ultralytics, pip install Ultralytics, Docker install Ultralytics, Ultralytics command line interface, Ultralytics Python interface ---- - -## تثبيت Ultralytics - -يوفر Ultralytics طرق تثبيت مختلفة بما في ذلك pip و conda و Docker. يمكنك تثبيت YOLOv8 عن طريق حزمة `ultralytics` من خلال pip للإصدار الأحدث والمستقر أو من خلال استنساخ [مستودع Ultralytics على GitHub](https://github.com/ultralytics/ultralytics) للحصول على الإصدار الأحدث. يمكن استخدام Docker لتنفيذ الحزمة في حاوية معزولة، وتجنب التثبيت المحلي. - -!!! Note "ملاحظة" - - 🚧 تم بناء وثائقنا متعددة اللغات حاليًا، ونعمل بجد لتحسينها. شكرًا لك على صبرك! 🙏 - -!!! Example "تثبيت" - - === "تثبيت باستخدام pip (الموصَى به)" - قم بتثبيت حزمة `ultralytics` باستخدام pip، أو قم بتحديث التثبيت الحالي عن طريق تشغيل `pip install -U ultralytics`. قم بزيارة مؤشر Python Package Index (PyPI) للحصول على مزيد من التفاصيل حول حزمة `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). - - [![نسخة PyPI](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![التنزيلات](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # قم بتثبيت حزمة ultralytics من PyPI - pip install ultralytics - ``` - - يمكنك أيضًا تثبيت حزمة `ultralytics` مباشرة من مستودع GitHub [repository](https://github.com/ultralytics/ultralytics). قد يكون ذلك مفيدًا إذا كنت ترغب في الحصول على الإصدار التجريبي الأحدث. تأكد من تثبيت أداة الأوامر Git على نظامك. يُثبّت الأمر `@main` الفرع `main` ويمكن تعديله إلى فرع آخر، على سبيل المثال `@my-branch`، أو يمكن إزالته تمامًا للانتقال إلى الفرع الرئيسي `main`. - - ```bash - # قم بتثبيت حزمة ultralytics من GitHub - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "تثبيت باستخدام conda" - Conda هو مدير حزم بديل لـ pip ويمكن استخدامه أيضًا للتثبيت. قم بزيارة Anaconda للحصول على مزيد من التفاصيل على [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics). يمكن العثور على مستودع Ultralytics feedstock لتحديث حزمة conda على [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/). - - - [![وصفة conda](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![تنزيلات conda](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![إصدار conda](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![منصات conda](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # قم بتثبيت حزمة ultralytics باستخدام conda - conda install -c conda-forge ultralytics - ``` - - !!! Note "ملاحظة" - - إذا كنت تقوم بالتثبيت في بيئة CUDA، فإن الممارسة الجيدة هي تثبيت `ultralytics`, `pytorch` و `pytorch-cuda` في نفس الأمر للسماح لمدير حزم conda بحل أي تعارضات، أو وإلا فقوم بتثبيت `pytorch-cuda` في نهاية الأمر للسماح له بتجاوز حزمة `pytorch` المحددة لوحدة المعالجة المركزية إذا لزم الأمر. - ```bash - # قم بتثبيت كافة الحزم معًا باستخدام conda - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### صورة Docker في Conda - - تتوفر أيضًا صور Docker لـ Conda لـ Ultralytics من [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics). تستند هذه الصور إلى [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) وهي وسيلة بسيطة لبدء استخدام `ultralytics` في بيئة Conda. - - ```bash - # قم بتعيين اسم الصورة بوصفه متغير - t=ultralytics/ultralytics:latest-conda - - # اسحب أحدث صورة ultralytics من Docker Hub - sudo docker pull $t - - # قم بتشغيل صورة ultralytics في حاوية مع دعم GPU - sudo docker run -it --ipc=host --gpus all $t # all GPUs - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # قد يتم تحديد GPUs - ``` - - === "استنساخ Git" - قم بنسخ مستودع `ultralytics` إذا كنت مهتمًا بالمساهمة في التطوير أو ترغب في تجربة الشفرة المصدرية الأحدث. بعد الاستنساخ، انتقل إلى الدليل وقم بتثبيت الحزمة في وضع التحرير `-e` باستخدام pip. - ```bash - # قم بنسخ مستودع ultralytics - git clone https://github.com/ultralytics/ultralytics - - # انتقل إلى الدليل المنسوخ - cd ultralytics - - # قم بتثبيت الحزمة في وضع التحرير - pip install -e . - ``` - - === "Docker" - - تمكنك من استخدام Docker بسهولة لتنفيذ حزمة `ultralytics` في حاوية معزولة، مما يضمن أداءً سلسًا ومتسقًا في مختلف البيئات. عن طريق اختيار إحدى صور Docker الأصلية لـ `ultralytics` من [Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics)، لن تتجنب فقط تعقيد التثبيت المحلي ولكنك ستستفيد أيضًا من وصول إلى بيئة عمل متحققة وفعالة. يقدم Ultralytics 5 صور Docker مدعومة رئيسية، يتم تصميم كل منها لتوفير توافق عالي وكفاءة لمنصات وحالات استخدام مختلفة: - - Docker Pulls - - - **Dockerfile:** صورة GPU الموصى بها للتدريب. - - **Dockerfile-arm64:** محسّن لبنية ARM64، مما يتيح النشر على أجهزة مثل Raspberry Pi ومنصات أخرى تعتمد على ARM64. - - **Dockerfile-cpu:** إصدار مناسب للتحكم بوحدة المعالجة المركزية فقط بدون دعم لل GPU. - - **Dockerfile-jetson:** مصمم خصيصًا لأجهزة NVIDIA Jetson، ويدمج دعمًا لل GPU المحسن لهذه المنصات. - - **Dockerfile-python:** صورة صغيرة بها فقط Python والتبعيات الضرورية، مثالية للتطبيقات والتطوير الخفيف. - - **Dockerfile-conda:** قائمة على Miniconda3 مع تثبيت conda لحزمة ultralytics. - - فيما يلي الأوامر للحصول على أحدث صورة وتشغيلها: - - ```bash - # قم بتعيين اسم الصورة بوصفه متغير - t=ultralytics/ultralytics:latest - - # اسحب أحدث صورة ultralytics من Docker Hub - sudo docker pull $t - - # قم بتشغيل صورة ultralytics في حاوية مع دعم GPU - sudo docker run -it --ipc=host --gpus all $t # all GPUs - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # قد يتم تحديد GPUs - ``` - - يقوم الأمر أعلاه بتهيئة حاوية Docker بأحدث صورة `ultralytics`. يُسند العلامة `-it` جهازًا افتراضيًا TTY ويحافظ على فتح stdin لتمكينك من التفاعل مع الحاوية. تعيين العلامة `--ipc=host` مساحة اسم IPC (Inter-Process Communication) إلى المضيف، وهو أمر ضروري لمشاركة الذاكرة بين العمليات. تُمكّن العلامة `--gpus all` الوصول إلى كل وحدات المعالجة المركزية الرسومية المتاحة داخل الحاوية، مما هو أمر حاسم للمهام التي تتطلب حسابات GPU. - - ملاحظة: للعمل مع الملفات على جهازك المحلي داخل الحاوية، استخدم مجلدات Docker لتوصيل دليل محلي بالحاوية: - - ```bash - # مجلد الدليل المحلي بالحاوية - sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t - ``` - - قم بتغيير `/path/on/host` بمسار الدليل على جهازك المحلي، و `/path/in/container` باالمسار المطلوب داخل حاوية Docker للوصول إليه. - - للاستفادة القصوى من استخدام Docker المتقدم، لا تتردد في استكشاف [دليل Ultralytics Docker](https://docs.ultralytics.com/guides/docker-quickstart/). - -راجع ملف `requirements.txt` الخاص بـ `ultralytics` [هنا](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml) للحصول على قائمة المتطلبات. يُرجى ملاحظة أن جميع الأمثلة أعلاه يتم تثبيت جميع المتطلبات المطلوبة. - -

-
- -
- شاهد: دليل فتع Ultralytics YOLO السريع -

- -!!! Tip "نصيحة" - - يختلف متطلبات PyTorch حسب نظام التشغيل ومتطلبات CUDA، لذا يُوصَى بتثبيت PyTorch أولاً باستخدام التعليمات الموجودة في [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). - - - PyTorch تعليمات التثبيت - - -## استخدم Ultralytics مع واجهة سطر الأوامر (CLI) - -تتيح واجهة سطر الأوامر (CLI) في Ultralytics تشغيل أوامر بسيطة بدون الحاجة إلى بيئة Python. لا تحتاج CLI إلى أي تخصيص أو كود Python. يمكنك ببساطة تشغيل جميع المهام من الطرفية باستخدام الأمر `yolo`. تحقق من [دليل CLI](/../usage/cli.md) لمعرفة المزيد حول استخدام YOLOv8 من سطر الأوامر. - -!!! Example "مثال" - - === "الصيغة" - تستخدم أوامر Ultralytics `yolo` الصيغة التالية: - ```bash - yolo TASK MODE ARGS - ``` - - - `TASK` (اختياري) أحد التالي ([detect](tasks/detect.md), [segment](tasks/segment.md), [classify](tasks/classify.md), [pose](tasks/pose.md)) - - `MODE` (مطلوب) واحد من ([train](modes/train.md), [val](modes/val.md), [predict](modes/predict.md), [export](modes/export.md), [track](modes/track.md)) - - `ARGS` (اختياري) أزواج "arg=value" مثل `imgsz=640` التي تستبدل القيم الافتراضية. - - راجع جميع `ARGS` [هنا](/../usage/cfg.md) أو باستخدام الأمر `yolo cfg` في سطر الأوامر. - - === "التدريب" - قم بتدريب نموذج اكتشاف لمدة 10 حلقات مع سعر تعلم بدءي 0.01 - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "التنبؤ" - تنبؤ بفيديو YouTube باستخدام نموذج تجزئة معتمد مسبقًا عند حجم الصورة 320: - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "التحقق" - التحقق من نموذج اكتشاف معتمد مسبقًا على دُفعَة واحدة وحجم صورة قدره 640: - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "التصدير" - قم بتصدير نموذج فئة YOLOv8n إلى تنسيق ONNX على حجم صورة 224 بواسطة 128 (لا يلزم TASK) - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "خاص" - قم بتشغيل أوامر خاصة لعرض الإصدارة وعرض الإعدادات وتشغيل عمليات التحقق والمزيد: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "تحذير" -يجب تمرير الوسوم كأزواج "arg=val"، وأن تُفصل بعلامة تساوي `=` وأن تُفصل بمسافات بين الأزواج. لا تستخدم بادئات الوسوم `--` أو فواصل `,` بين الوسوم. - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25` ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25` ❌ (مفقود العلامة المساواة) - - `yolo predict model=yolov8n.pt, imgsz=640, conf=0.25` ❌ (لا تستخدم `,`) - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25` ❌ (لا تستخدم `--`) - -[دليل CLI](/../usage/cli.md){ .md-button } - -## استخدم Ultralytics مع Python - -تسمح واجهة Python في YOLOv8 بالتكامل السلس في مشاريع Python الخاصة بك، مما يجعل من السهل تحميل النموذج وتشغيله ومعالجة نتائجه. المصممة ببساطة وسهولة الاستخدام في الاعتبار، تمكن واجهة Python المستخدمين من تنفيذ الكشف على الكائنات والتجزئة والتصنيف في مشاريعهم. يجعل هذا واجهة YOLOv8 Python أداة قيمة لأي شخص يرغب في دمج هذه الوظائف في مشاريعهم باسياتو. - -على سبيل المثال، يمكن للمستخدمين تحميل نموذج، تدريبه، تقييم أدائه على مجموعة التحقق، وحتى تصديره إلى تنسيق ONNX ببضعة أسطر فقط من الشفرة. تحقق من [دليل Python](/../usage/python.md) لمعرفة المزيد حول استخدام YOLOv8 داخل مشاريعك الخاصة. - -!!! Example "مثال" - - ```python - from ultralytics import YOLO - - # أنشئ نموذج YOLO جديد من البداية - model = YOLO('yolov8n.yaml') - - # قم بتحميل نموذج YOLO معتمد مسبقًا (موصَى به للتدريب) - model = YOLO('yolov8n.pt') - - # قم بتدريب النموذج باستخدام مجموعة البيانات 'coco128.yaml' لمدة 3 حلقات - results = model.train(data='coco128.yaml', epochs=3) - - # قم بتقييم أداء النموذج على مجموعة التحقق - results = model.val() - - # قم بإجراء الكشف على صورة باستخدام النموذج - results = model('https://ultralytics.com/images/bus.jpg') - - # قم بتصدير النموذج إلى تنسيق ONNX - success = model.export(format='onnx') - ``` - -[دليل Python](/../usage/python.md){.md-button .md-button--primary} - -## إعدادات Ultralytics - -يوفر مكتبة Ultralytics نظامًا قويًا لإدارة الإعدادات لتمكين التحكم بمحاكاة تفصيلية لتجاربك. من خلال استخدام `SettingsManager` في الوحدة `ultralytics.utils`، يمكن للمستخدمين الوصول بسهولة إلى إعداداتهم وتعديلها. يتم تخزينها في ملف YAML ويمكن عرضها أو تعديلها إما مباشرة في بيئة Python أو من خلال واجهة سطر الأوامر (CLI). - -### فحص الإعدادات - -للحصول على فهم للتكوين الحالي لإعداداتك، يمكنك عرضها مباشرةً: - -!!! Example "عرض الإعدادات" - - === "Python" - يُمكنك استخدام Python لعرض الإعدادات الخاصة بك. ابدأ بـاستيراد الكائن `settings` من وحدة `ultralytics`. استخدم الأوامر التالية لطباعة الإعدادات والعودة منها: - ```python - from ultralytics import settings - - # عرض كل الإعدادات - print(settings) - - # إرجاع إعداد محدد - value = settings['runs_dir'] - ``` - - === "CLI" - بدلاً من ذلك، واجهة سطر الأوامر تسمح لك بالتحقق من الإعدادات الخاصة بك باستخدام أمر بسيط: - ```bash - yolo settings - ``` - -### تعديل الإعدادات - -يسمح لك Ultralytics بتعديل الإعدادات بسهولة. يمكن تنفيذ التغييرات بالطرق التالية: - -!!! Example "تحديث الإعدادات" - - === "Python" - داخل بيئة Python، اطلب الطريقة `update` على الكائن `settings` لتغيير إعداداتك: - - ```python - from ultralytics import settings - - # تحديث إعداد واحد - settings.update({'runs_dir': '/path/to/runs'}) - - # تحديث إعدادات متعددة - settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False}) - - # إعادة الإعدادات إلى القيم الافتراضية - settings.reset() - ``` - - === "CLI" - إذا كنت تفضل استخدام واجهة سطر الأوامر، يمكنك استخدام الأوامر التالية لتعديل إعداداتك: - - ```bash - # تحديث إعداد واحد - yolo settings runs_dir='/path/to/runs' - - # تحديث إعدادات متعددة - yolo settings runs_dir='/path/to/runs' tensorboard=False - - # إعادة الإعدادات إلى القيم الافتراضية - yolo settings reset - ``` - -### فهم الإعدادات - -يوفر الجدول أدناه نظرة عامة على الإعدادات المتاحة للضبط في Ultralytics. يتم توضيح كل إعداد بالإضافة إلى قيمة مثالية ونوع البيانات ووصف موجز. - -| الاسم | القيمة المثالية | نوع البيانات | الوصف | -|--------------------|-----------------------|--------------|-------------------------------------------------------------------------------------------------------------| -| `settings_version` | `'0.0.4'` | `str` | إصدار إعدادات Ultralytics (مختلف عن إصدار Ultralytics [pip](https://pypi.org/project/ultralytics/)) | -| `datasets_dir` | `'/path/to/datasets'` | `str` | المسار الذي يتم تخزينه فيه مجموعات البيانات | -| `weights_dir` | `'/path/to/weights'` | `str` | المسار الذي يتم تخزينه فيه أوزان النموذج | -| `runs_dir` | `'/path/to/runs'` | `str` | المسار الذي يتم تخزينه فيه تشغيل التجارب | -| `uuid` | `'a1b2c3d4'` | `str` | مُعرِّف فريد لإعدادات الحالية | -| `sync` | `True` | `bool` | ما إذا كان يتم مزامنة التحليلات وحوادث الأعطال إلى HUB | -| `api_key` | `''` | `str` | HUB الخاص بـ Ultralytics [API Key](https://hub.ultralytics.com/settings?tab=api+keys) | -| `clearml` | `True` | `bool` | ما إذا كان يتم استخدام ClearML لتسجيل التجارب | -| `comet` | `True` | `bool` | ما إذا كان يتم استخدام [Comet ML](https://bit.ly/yolov8-readme-comet) لتتبع وتصور التجارب | -| `dvc` | `True` | `bool` | ما إذا كان يتم استخدام [DVC لتتبع التجارب](https://dvc.org/doc/dvclive/ml-frameworks/yolo) والتحكم في النسخ | -| `hub` | `True` | `bool` | ما إذا كان يتم استخدام [Ultralytics HUB](https://hub.ultralytics.com) للتكامل | -| `mlflow` | `True` | `bool` | ما إذا كان يتم استخدام MLFlow لتتبع التجارب | -| `neptune` | `True` | `bool` | ما إذا كان يتم استخدام Neptune لتتبع التجارب | -| `raytune` | `True` | `bool` | ما إذا كان يتم استخدام Ray Tune لضبط الحساسية | -| `tensorboard` | `True` | `bool` | ما إذا كان يتم استخدام TensorBoard للتصور | -| `wandb` | `True` | `bool` | ما إذا كان يتم استخدام Weights & Biases لتسجيل البيانات | - -أثناء تنقلك في مشاريعك أو تجاربك، تأكد من مراجعة هذه الإعدادات لضمان تكوينها بشكل مثالي وفقًا لاحتياجاتك. diff --git a/docs/ar/tasks/classify.md b/docs/ar/tasks/classify.md deleted file mode 100644 index 8841dda90ea..00000000000 --- a/docs/ar/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: تعرّف على نماذج YOLOv8 Classify لتصنيف الصور. احصل على معلومات مفصلة حول قائمة النماذج المدرّبة مسبقًا وكيفية التدريب والتحقق والتنبؤ وتصدير النماذج. -keywords: Ultralytics، YOLOv8، تصنيف الصور، النماذج المدربة مسبقًا، YOLOv8n-cls، التدريب، التحقق، التنبؤ، تصدير النماذج ---- - -# تصنيف الصور - -أمثلة على تصنيف الصور - -تعتبر عملية تصنيف الصور أبسط المهام الثلاثة وتنطوي على تصنيف صورة كاملة في إحدى الفئات المحددة سابقًا. - -ناتج نموذج تصنيف الصور هو تسمية فئة واحدة ودرجة ثقة. يكون تصنيف الصور مفيدًا عندما تحتاج فقط إلى معرفة فئة الصورة ولا تحتاج إلى معرفة موقع الكائنات التابعة لتلك الفئة أو شكلها الدقيق. - -!!! Tip "نصيحة" - - تستخدم نماذج YOLOv8 Classify اللاحقة "-cls"، مثالًا "yolov8n-cls.pt" وتم تدريبها على [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -تظهر هنا النماذج المدرّبة مسبقًا لـ YOLOv8 للتصنيف. تم تدريب نماذج الكشف والشعبة والموضع على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما تم تدريب نماذج التصنيف مسبقًا على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -يتم تنزيل [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) تلقائيًا من أحدث إصدار لـ Ultralytics [releases](https://github.com/ultralytics/assets/releases) عند الاستخدام الأول. - -| النموذج | الحجم
(بكسل) | دقة (أعلى 1)
acc | دقة (أعلى 5)
acc | سرعة التنفيذ
ONNX للوحدة المركزية
(مللي ثانية) | سرعة التنفيذ
A100 TensorRT
(مللي ثانية) | المعلمات
(مليون) | FLOPs
(مليار) لحجم 640 | -|----------------------------------------------------------------------------------------------|----------------------|--------------------------|--------------------------|-----------------------------------------------------------|----------------------------------------------------|--------------------------|--------------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- قيمة **acc** هي دقة النماذج على مجموعة بيانات التحقق [ImageNet](https://www.image-net.org/). -
لإعادة إنتاج ذلك، استخدم `yolo val classify data=path/to/ImageNet device=0` -- يتم حساب سرعة **Speed** بناءً على متوسط صور التحقق من ImageNet باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
لإعادة إنتاج ذلك، استخدم `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` - -## التدريب - -قم بتدريب YOLOv8n-cls على مجموعة بيانات MNIST160 لمدة 100 دورة عند حجم الصورة 64 بكسل. للحصول على قائمة كاملة بالوسائط المتاحة، اطلع على صفحة [تكوين](/../usage/cfg.md). - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # تحميل نموذج - model = YOLO('yolov8n-cls.yaml') # إنشاء نموذج جديد من نموذج YAML - model = YOLO('yolov8n-cls.pt') # تحميل نموذج مدرّب مسبقًا (موصى به للتدريب) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # إنشاء من YAML ونقل الأوزان - - # تدريب النموذج - results = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # إنشاء نموذج جديد من YAML وبدء التدريب من البداية - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # بدء التدريب من نموذج مدرّب بصيغة pt - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # إنشاء نموذج جديد من YAML ونقل الأوزان المدرّبة مسبقًا وبدء التدريب - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### تنسيق مجموعة البيانات - -يمكن العثور على تنسيق مجموعة بيانات تصنيف YOLO بالتفصيل في [مرشد المجموعة](../../../datasets/classify/index.md). - -## التحقق - -قم بتحديد دقة النموذج YOLOv8n-cls المدرّب على مجموعة بيانات MNIST160. لا يلزم تمرير أي وسيطة حيث يحتفظ `model` ببيانات التدريب والوسائط كسمات النموذج. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # تحميل نموذج - model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مخصص - - # التحقق من النموذج - metrics = model.val() # لا تحتاج إلى وسائط، يتم تذكر مجموعة البيانات والإعدادات النموذج - metrics.top1 # دقة أعلى 1 - metrics.top5 # دقة أعلى 5 - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # تحقق من النموذج الرسمي - yolo classify val model=path/to/best.pt # تحقق من النموذج المخصص - ``` - -## التنبؤ - -استخدم نموذج YOLOv8n-cls المدرّب لتنفيذ تنبؤات على الصور. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # تحميل نموذج - model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مخصص - - # تنبؤ باستخدام النموذج - results = model('https://ultralytics.com/images/bus.jpg') # تنبؤ على صورة - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # تنبؤ باستخدام النموذج الرسمي - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # تنبؤ باستخدام النموذج المخصص - ``` - -راجع تفاصيل كاملة حول وضع `predict` في الصفحة [Predict](https://docs.ultralytics.com/modes/predict/). - -## تصدير - -قم بتصدير نموذج YOLOv8n-cls إلى تنسيق مختلف مثل ONNX، CoreML، وما إلى ذلك. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # تحميل نموذج - model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مدرّب مخصص - - # تصدير النموذج - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # تصدير النموذج الرسمي - yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرّب مخصص - ``` - -تتوفر صيغ تصدير YOLOv8-cls في الجدول أدناه. يمكنك تنبؤ أو التحقق من الصحة مباشرةً على النماذج المصدر، أي "yolo predict model=yolov8n-cls.onnx". يتم عرض أمثلة لاستخدام النموذج الخاص بك بعد الانتهاء من التصدير. - -| الصيغة | وسيطة الصيغة | النموذج | البيانات الوصفية | الوسيطات | -|--------------------------------------------------------------------|---------------|-------------------------------|------------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -راجع التفاصيل الكاملة حول `export` في الصفحة [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ar/tasks/detect.md b/docs/ar/tasks/detect.md deleted file mode 100644 index 9e5974d342d..00000000000 --- a/docs/ar/tasks/detect.md +++ /dev/null @@ -1,185 +0,0 @@ ---- -comments: true -description: وثائق رسمية لـ YOLOv8 بواسطة Ultralytics. تعلم كيفية تدريب و التحقق من صحة و التنبؤ و تصدير النماذج بتنسيقات مختلفة. تتضمن إحصائيات الأداء التفصيلية. -keywords: YOLOv8, Ultralytics, التعرف على الكائنات, النماذج المدربة من قبل, التدريب, التحقق من الصحة, التنبؤ, تصدير النماذج, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# التعرف على الكائنات - -Beispiele für die Erkennung von Objekten - -Task التعرف على الكائنات هو عبارة عن تعرف على موقع و فئة الكائنات في صورة أو فيديو. - -مخرجات جهاز الاستشعار هي مجموعة من مربعات تحيط بالكائنات في الصورة، مع تصنيف الفئة ودرجات وثقة لكل مربع. التعرف على الكائنات هو اختيار جيد عندما تحتاج إلى تحديد كائنات مهمة في مشهد، ولكنك لا تحتاج إلى معرفة بالضبط أين يكمن الكائن أو شكله الدقيق. - -

-
- -
- شاهد: التعرف على الكائنات باستخدام نموذج Ultralytics YOLOv8 مع تدريب مسبق. -

- -!!! Tip "تلميح" - - نماذج YOLOv8 Detect هي النماذج الافتراضية YOLOv8، أي `yolov8n.pt` و هي مدربة مسبقًا على [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -تُعرض هنا النماذج المدربة مسبقًا لـ YOLOv8 Detect. النماذج Detect و Segment و Pose معتمدة على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما النماذج Classify معتمدة على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -تُقوم النماذج بالتنزيل تلقائيًا من أحدث [إصدار Ultralytics](https://github.com/ultralytics/assets/releases) عند الاستخدام لأول مرة. - -| النموذج | الحجم
(بكسل) | mAPval
50-95 | السرعة
CPU ONNX
(مللي ثانية) | السرعة
A100 TensorRT
(مللي ثانية) | الوزن
(ميغا) | FLOPs
(مليار) | -|--------------------------------------------------------------------------------------|----------------------|----------------------|-----------------------------------------|----------------------------------------------|----------------------|-----------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- قيم mAPval تنطبق على مقياس نموذج واحد-مقياس واحد على مجموعة بيانات [COCO val2017](https://cocodataset.org). -
اعيد حسابها بواسطة `yolo val detect data=coco.yaml device=0` -- السرعةتمت متوسطة على صور COCO val باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) - instance. -
اعيد حسابها بواسطة `yolo val detect data=coco128.yaml batch=1 device=0|cpu` - -## تدريب - -قم بتدريب YOLOv8n على مجموعة البيانات COCO128 لمدة 100 دورة على حجم صورة 640. للحصول على قائمة كاملة بالوسائط المتاحة انظر الصفحة [التكوين](/../usage/cfg.md). - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل نموذج - model = YOLO('yolov8n.yaml') # بناء نموذج جديد من YAML - model = YOLO('yolov8n.pt') # قم بتحميل نموذج مدرب مسبقًا (موصى به للتدريب) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # بناء من YAML و نقل الأوزان - - # قم بتدريب النموذج - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # قم ببناء نموذج جديد من YAML وابدأ التدريب من الصفر - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # ابدأ التدريب من نموذج *.pt مدرب مسبقًا - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # بناء نموذج جديد من YAML، ونقل الأوزان المدربة مسبقاً إلى النموذج وابدأ التدريب - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### تنسيق مجموعة بيانات - -يمكن العثور على تنسيق مجموعة بيانات التعرف على الكائنات بالتفصيل في [دليل مجموعة البيانات](../../../datasets/detect/index.md). لتحويل مجموعة البيانات الحالية من تنسيقات أخرى (مثل COCO الخ) إلى تنسيق YOLO، يرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) المقدمة من Ultralytics. - -## التحقق من الصحة - -قم بتحقق من دقة النموذج المدرب مسبقًا YOLOv8n على مجموعة البيانات COCO128. ليس هناك حاجة إلى تمرير أي وسيطات حيث يحتفظ النموذج ببياناته التدريبية والوسيطات كسمات النموذج. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل نموذج - model = YOLO('yolov8n.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مخصص - - # قم بالتحقق من النموذج - metrics = model.val() # لا حاجة لأي بيانات، يتذكر النموذج بيانات التدريب و الوسيطات - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # قائمة تحتوي map50-95 لكل فئة - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # التحقق من النموذج الرسمي - yolo detect val model=path/to/best.pt # التحقق من النموذج المخصص - ``` - -## التنبؤ - -استخدم نموذج YOLOv8n المدرب مسبقًا لتشغيل التنبؤات على الصور. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل نموذج - model = YOLO('yolov8n.pt') # قم بتحميل نموذج رسمي - model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص - - # أجرِ التنبؤ باستخدام النموذج - results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ على صورة - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي - yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ بالنموذج المخصص - ``` - -انظر تفاصيل وضع الـ `predict` الكامل في صفحة [Predict](https://docs.ultralytics.com/modes/predict/). - -## تصدير - -قم بتصدير نموذج YOLOv8n إلى تنسيق مختلف مثل ONNX، CoreML وغيرها. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل نموذج - model = YOLO('yolov8n.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص - - # قم بتصدير النموذج - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # تصدير النموذج الرسمي - yolo export model=path/to/best.pt format=onnx # تصدير النموذج المدرب مخصص - ``` - -التنسيقات المدعومة لتصدير YOLOv8 مدرجة في الجدول أدناه. يمكنك التنبؤ أو التحقق من صحة النماذج المصدرة مباشرة، على سبيل المثال `yolo predict model=yolov8n.onnx`. سيتم عرض أمثلة استخدام لنموذجك بعد اكتمال التصدير. - -| الشكل | مسافة `format` | النموذج | بيانات الوصف | وسيطات | -|--------------------------------------------------------------------|----------------|---------------------------|--------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - أو | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -انظر تفاصيل كاملة للـ `export` في صفحة [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ar/tasks/index.md b/docs/ar/tasks/index.md deleted file mode 100644 index dfb2f43da20..00000000000 --- a/docs/ar/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: تعرّف على المهام الأساسية لتقنية YOLOv8 للرؤية الحاسوبية والتي تشمل الكشف، التجزئة، التصنيف وتقدير الوضعية. تعرف على استخداماتها في مشاريع الذكاء الاصطناعي الخاصة بك. -keywords: Ultralytics، YOLOv8، الكشف، التجزئة، التصنيف، تقدير الوضعية، الإطار الذكي للذكاء الاصطناعي، المهام الرؤية الحاسوبية ---- - -# مهام Ultralytics YOLOv8 - -
-مهام Ultralytics YOLOv8 المدعومة - -YOLOv8 هو إطار ذكاء اصطناعي يدعم عدة **مهام** للرؤية الحاسوبية. يمكن استخدام الإطار لأداء [الكشف](detect.md)، [التجزئة](segment.md)، [التصنيف](classify.md)، و[تقدير الوضعية](pose.md). كل من هذه المهام لها هدف مختلف واستخدام محدد. - -!!! Note "ملاحظة" - - 🚧 يجري بناء وثائقنا متعددة اللغات حاليًا، ونعمل جاهدين على تحسينها. شكرًا لصبرك! 🙏 - -

-
- -
- شاهد: استكشف مهام Ultralytics YOLO: كشف الكائنات، التجزئة، التتبع وتقدير الوضعية. -

- -## [الكشف](detect.md) - -الكشف هو المهمة الأساسية المدعومة بواسطة YOLOv8. يتضمن الكشف اكتشاف الكائنات في صورة أو إطار فيديو ورسم مربعات محيطة حولها. يتم تصنيف الكائنات المكتشفة إلى فئات مختلفة استنادًا إلى ميزاتها. يمكن لـ YOLOv8 اكتشاف أكثر من كائن واحد في صورة أو إطار فيديو واحد بدقة وسرعة عالية. - -[أمثلة للكشف](detect.md){ .md-button } - -## [التجزئة](segment.md) - -التجزئة هي مهمة تتضمن تقسيم صورة إلى مناطق مختلفة استنادًا إلى محتوى الصورة. يتم تعيين علامة لكل منطقة استنادًا إلى محتواها. تعتبر هذه المهمة مفيدة في تطبيقات مثل تجزئة الصور وتصوير الطبية. يستخدم YOLOv8 نسخة معدلة من هندسة U-Net لأداء التجزئة. - -[أمثلة للتجزئة](segment.md){ .md-button } - -## [التصنيف](classify.md) - -التصنيف هو مهمة تتضمن تصنيف صورة إلى فئات مختلفة. يمكن استخدام YOLOv8 لتصنيف الصور استنادًا إلى محتواها. يستخدم نسخة معدلة من هندسة EfficientNet لأداء التصنيف. - -[أمثلة للتصنيف](classify.md){ .md-button } - -## [تقدير الوضعية](pose.md) - -تقدير الوضعية/النقاط الرئيسية هو مهمة تتضمن اكتشاف نقاط محددة في صورة أو إطار فيديو. يُشار إلى هذه النقاط بمصطلح النقاط الرئيسية وتُستخدم لتتبع الحركة أو تقدير الوضعية. يمكن لـ YOLOv8 اكتشاف النقاط الرئيسية في صورة أو إطار فيديو بدقة وسرعة عالية. - -[أمثلة لتقدير الوضعية](pose.md){ .md-button } - -## الاستنتاج - -يدعم YOLOv8 مهام متعددة، بما في ذلك الكشف، التجزئة، التصنيف، وكشف النقاط الرئيسية. لكل من هذه المهام أهداف واستخدامات مختلفة. عن طريق فهم الاختلافات بين هذه المهام، يمكنك اختيار المهمة المناسبة لتطبيق الرؤية الحاسوبية الخاص بك. diff --git a/docs/ar/tasks/pose.md b/docs/ar/tasks/pose.md deleted file mode 100644 index 7d5627fa8d9..00000000000 --- a/docs/ar/tasks/pose.md +++ /dev/null @@ -1,186 +0,0 @@ ---- -comments: true -description: تعرّف على كيفية استخدام Ultralytics YOLOv8 لمهام تقدير الوضعية. اعثر على نماذج مدرّبة مسبقًا، وتعلم كيفية التدريب والتحقق والتنبؤ وتصدير نموذجك الخاص. -keywords: Ultralytics، YOLO، YOLOv8، تقدير الوضعية ، كشف نقاط المفاتيح ، كشف الكائنات ، نماذج مدرّبة مسبقًا ، تعلم الآلة ، الذكاء الاصطناعي ---- - -# تقدير الوضعية - -تقدير الوضعية هو مهمة تنطوي على تحديد موقع نقاط محددة في الصورة ، وعادةً ما يشار إليها بنقاط الوضوح. يمكن أن تمثل نقاط الوضوح أجزاءً مختلفةً من الكائن مثل المفاصل أو العلامات المميزة أو الميزات البارزة الأخرى. عادةً ما يتم تمثيل مواقع نقاط الوضوح كمجموعة من الإحداثيات 2D `[x ، y]` أو 3D `[x ، y ، visible]`. - -يكون ناتج نموذج تقدير الوضعية مجموعة من النقاط التي تمثل نقاط الوضوح على كائن في الصورة ، عادةً مع نقاط الثقة لكل نقطة. تقدير الوضعية هو خيار جيد عندما تحتاج إلى تحديد أجزاء محددة من كائن في مشهد، وموقعها بالنسبة لبعضها البعض. - -

-
- -
- شاهد: تقدير الوضعية مع Ultralytics YOLOv8. -

- -!!! Tip "نصيحة" - - النماذج التي تحتوي على البادئة "-pose" تستخدم لنماذج YOLOv8 pose ، على سبيل المثال `yolov8n-pose.pt`. هذه النماذج مدربة على [مجموعة بيانات نقاط الوضوح COCO]("https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml") وهي مناسبة لمجموعة متنوعة من مهام تقدير الوضعية. - -## [النماذج]("https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8") - -تعرض نماذج مدرّبة مسبقًا لـ YOLOv8 التي تستخدم لتقدير الوضعية هنا. النماذج للكشف والشريحة والوضعية يتم تدريبها على [مجموعة بيانات COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما تتم تدريب نماذج التصنيف على مجموعة بيانات ImageNet. - -يتم تنزيل النماذج من [آخر إصدار Ultralytics]("https://github.com/ultralytics/assets/releases") تلقائيًا عند استخدامها لأول مرة. - -| النموذج | الحجم (بالبكسل) | mAPالوضعية 50-95 | mAPالوضعية 50 | سرعةالوحدة المركزية ONNX(ms) | سرعةA100 TensorRT(ms) | المعلمات (مليون) | FLOPs (بالمليار) | -|------------------------------------------------------------------------------------------------------|-----------------|-----------------------|--------------------|----------------------------------------|---------------------------------|------------------|------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- تعتبر القيم **mAPval** لنموذج واحد ومقياس واحد فقط على [COCO Keypoints val2017](https://cocodataset.org) - مجموعة البيانات. -
يمكن إعادة إنتاجه بواسطة `يولو val pose data=coco-pose.yaml device=0` -- يتم حساب **السرعة** من خلال متوسط صور COCO val باستخدام [المروحة الحرارية Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) - مثيل. -
يمكن إعادة إنتاجه بواسطة `يولو val pose data=coco8-pose.yaml batch=1 device=0|cpu` - -## التدريب - -يتم تدريب نموذج YOLOv8-pose على مجموعة بيانات COCO128-pose. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('yolov8n-pose.yaml') # بناء نموذج جديد من ملف YAML - model = YOLO('yolov8n-pose.pt') # تحميل نموذج مدرّب مسبقًا (موصى به للتدريب) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # بناء نموذج من YAML ونقل الوزن - - # تدريب النموذج - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # بناء نموذج جديد من YAML وبدء التدريب من البداية. - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # البدء في التدريب من نموذج مدرب مسبقًا *.pt - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # بناء نموذج جديد من YAML ، ونقل الأوزان المدرّبة مسبقًا إليه ، والبدء في التدريب. - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### تنسيق مجموعة البيانات - -يمكن العثور على تنسيق مجموعات بيانات نقاط الوضوح YOLO في [دليل المجموعة البيانات](../../../datasets/pose/index.md). لتحويل مجموعة البيانات الحالية التي لديك من تنسيقات أخرى (مثل COCO إلخ) إلى تنسيق YOLO ، يرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) من Ultralytics. - -## التحقق من الصحة - -تحقق من دقة نموذج YOLOv8n-pose المدرّب على مجموعة بيانات COCO128-pose. لا يلزم تمرير سبب ما كوسيط إلى `model` -عند استدعاء. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مخصص - - # التحقق من النموذج - metrics = model.val() # لا يوجد حاجة لأي سبب، يتذكر النموذج البيانات والوسائط كمجالات للنموذج - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # قائمة تحتوي على map50-95 لكل فئة - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # التحقق من النموذج الرسمي - yolo pose val model=path/to/best.pt # التحقق من النموذج المخصص - ``` - -## التنبؤ - -استخدم نموذج YOLOv8n-pose المدرّب لتشغيل توقعات على الصور. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مخصص - - # التنبؤ باستخدام النموذج - results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ بصورة - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي - yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج المخصص - ``` - -انظر تفاصيل `predict` كاملة في [صفحة التنبؤ](https://docs.ultralytics.com/modes/predict/). - -## التصدير - -قم بتصدير نموذج YOLOv8n-pose إلى تنسيق مختلف مثل ONNX، CoreML، الخ. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # تحميل النموذج - model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي - model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص - - # تصدير النموذج - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # تصدير نموذج رسمي - yolo export model=path/to/best.pt format=onnx # تصدير نموذج مخصص - ``` - -تتوفر تنسيقات تصدير YOLOv8-pose في الجدول أدناه. يمكنك التنبؤ أو التحقق مباشرةً على النماذج المصدرة ، على سبيل المثال `yolo predict model=yolov8n-pose.onnx`. توجد أمثلة استخدام متاحة لنموذجك بعد اكتمال عملية التصدير. - -| تنسيق | إجراء `format` | النموذج | البيانات الوصفية | الوسائط | -|--------------------------------------------------------------------|----------------|--------------------------------|------------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -انظر تفاصيل `export` كاملة في [صفحة التصدير](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ar/tasks/segment.md b/docs/ar/tasks/segment.md deleted file mode 100644 index 9a81e6bc3fb..00000000000 --- a/docs/ar/tasks/segment.md +++ /dev/null @@ -1,189 +0,0 @@ ---- -comments: true -description: تعلم كيفية استخدام نماذج فصل الأشكال الفردية مع Ultralytics YOLO. تعليمات حول التدريب والتحقق من الصحة وتوقع الصورة وتصدير النموذج. -keywords: yolov8 ، فصل الأشكال الفردية ، Ultralytics ، مجموعة بيانات COCO ، تجزئة الصورة ، كشف الكائنات ، تدريب النموذج ، التحقق من صحة النموذج ، توقع الصورة ، تصدير النموذج ---- - -# فصل الأشكال الفردية - -أمثلة على فصل الأشكال الفردية - -يذهب فصل الأشكال الفردية خطوة أبعد من كشف الكائنات وينطوي على تحديد الكائنات الفردية في صورة وتجزيئها عن بقية الصورة. - -ناتج نموذج فصل الأشكال الفردية هو مجموعة من الأقنعة أو الحدود التي تحدد كل كائن في الصورة ، جنبًا إلى جنب مع تصنيف الصنف ونقاط الثقة لكل كائن. يكون فصل الأشكال الفردية مفيدًا عندما تحتاج إلى معرفة ليس فقط أين توجد الكائنات في الصورة ، ولكن أيضًا ما هو شكلها الدقيق. - -

-
- -
- المشاهدة: تشغيل فصل الأشكال مع نموذج Ultralytics YOLOv8 مدرب مسبقًا باستخدام Python. -

- -!!! Tip "نصيحة" - - تستخدم نماذج YOLOv8 Seg اللاحقة `-seg`، أي `yolov8n-seg.pt` وتكون مدربة مسبقًا على [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -تُعرض هنا النماذج الجاهزة المدربة مسبقًا لـ YOLOv8 Segment. يتم تدريب نماذج الكشف والتجزيء والمواقف على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) ، بينما تدرب نماذج التصنيف على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -تتم تنزيل [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) تلقائيًا من [الإصدار](https://github.com/ultralytics/assets/releases) الأخير لـ Ultralytics عند أول استخدام. - -| النموذج | الحجم
بكسل | mAPbox
50-95 | mAPmask
50-95 | السرعة
CPU ONNX
(مللي ثانية) | السرعة
A100 TensorRT
(مللي ثانية) | المعلمات
(مليون) | FLOPs
(مليار) | -|----------------------------------------------------------------------------------------------|--------------------|----------------------|-----------------------|-----------------------------------------|----------------------------------------------|--------------------------|-----------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- تُستخدم قيم **mAPval** لنموذج واحد وحجم واحد على مجموعة بيانات [COCO val2017](https://cocodataset.org). -
يمكن إعادة إنتاجها باستخدام `yolo val segment data=coco.yaml device=0` -- **تُحسب السرعة** كمتوسط على صور COCO val باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) - instance. -
يمكن إعادة إنتاجها باستخدام `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` - -## التدريب - -قم بتدريب YOLOv8n-seg على مجموعة بيانات COCO128-seg لمدة 100 دورة عند حجم صورة 640. للحصول على قائمة كاملة بالوسائط المتاحة ، راجع صفحة [التكوين](/../usage/cfg.md). - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل النموذج - model = YOLO('yolov8n-seg.yaml') # قم ببناء نموذج جديد من ملف YAML - model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج مدرب مسبقًا (موصى به للتدريب) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # قم ببنائه من YAML ونقل الوزن - - # قم بتدريب النموذج - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # قم ببناء نموذج جديد من ملف YAML وبدء التدريب من البداية - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # قم ببدء التدريب من نموذج *.pt مدرب مسبقًا - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # قم ببناء نموذج جديد من YAML ونقل الأوزان المدربة مسبَقًا إليه وابدأ التدريب - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### تنسيق مجموعة البيانات - -يمكن العثور على تنسيق مجموعة بيانات تجزيء YOLO بالتفصيل في [دليل مجموعة البيانات](../../../datasets/segment/index.md). لتحويل مجموعة البيانات الحالية التي تتبع تنسيقات أخرى (مثل COCO إلخ) إلى تنسيق YOLO ، يُرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) من Ultralytics. - -## التحقق من الصحة - -قم بالتحقق من دقة نموذج YOLOv8n-seg المدرب على مجموعة بيانات COCO128-seg. لا حاجة لتمرير أي وسيطة كما يحتفظ النموذج ببيانات "تدريبه" والوسيطات كسمات النموذج. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل النموذج - model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي - model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص - - # قم بالتحقق من النموذج - metrics = model.val() # لا حاجة إلى أي وسيطة ، يتذكر النموذج بيانات التدريب والوسيطات كسمات النموذج - metrics.box.map # map50-95(B) - metrics.box.map50 # map50(B) - metrics.box.map75 # map75(B) - metrics.box.maps # قائمة تحتوي على map50-95(B) لكل فئة - metrics.seg.map # map50-95(M) - metrics.seg.map50 # map50(M) - metrics.seg.map75 # map75(M) - metrics.seg.maps # قائمة تحتوي على map50-95(M) لكل فئة - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # التحقق من النموذج الرسمي - yolo segment val model=path/to/best.pt # التحقق من النموذج المخصص - ``` - -## التنبؤ - -استخدم نموذج YOLOv8n-seg المدرب للقيام بالتنبؤات على الصور. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل النموذج - model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي - model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص - - # التنبؤ باستخدام النموذج - results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ على صورة - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي - yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج المخصص - ``` - -انظر تفاصيل "التنبؤ" الكاملة في [الصفحة](https://docs.ultralytics.com/modes/predict/). - -## التصدير - -قم بتصدير نموذج YOLOv8n-seg إلى تنسيق مختلف مثل ONNX و CoreML وما إلى ذلك. - -!!! Example "مثال" - - === "Python" - - ```python - from ultralytics import YOLO - - # قم بتحميل النموذج - model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي - model = YOLO('path/to/best.pt') # قم بتحميل نموذج مدرب مخصص - - # قم بتصدير النموذج - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # تصدير نموذج رسمي - yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرب مخصص - ``` - -صيغ تصدير YOLOv8-seg المتاحة في الجدول أدناه. يمكنك التنبؤ أو التحقق من صحة الموديل المصدر بشكل مباشر ، أي `yolo predict model=yolov8n-seg.onnx`. يتم عرض أمثلة عن الاستخدام لنموذجك بعد اكتمال التصدير. - -| الصيغة | `format` Argument | النموذج | التعليمات | الخيارات | -|--------------------------------------------------------------------|-------------------|-------------------------------|-----------|-------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `الحجم ، الأمان` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `الحجم ، half ، dynamic ، simplify ، opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `الحجم ، half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `الحجم ، half ، dynamic ، simplify ، workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `الحجم ، half ، int8 ، nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `الحجم ، keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `الحجم` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `الحجم ، half ، int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `الحجم` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `الحجم` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `الحجم` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `الحجم ، half` | - -انظر تفاصيل "التصدير" الكاملة في [الصفحة](https://docs.ultralytics.com/modes/export/). diff --git a/docs/build_docs.py b/docs/build_docs.py index 8db3f4a7c9f..825df8033df 100644 --- a/docs/build_docs.py +++ b/docs/build_docs.py @@ -23,6 +23,7 @@ Note: - This script is built to be run in an environment where Python and MkDocs are installed and properly configured. """ + import os import re import shutil @@ -35,7 +36,7 @@ SITE = DOCS.parent / "site" -def build_docs(use_languages=False, clone_repos=True): +def build_docs(clone_repos=True): """Build docs using mkdocs.""" if SITE.exists(): print(f"Removing existing {SITE}") @@ -49,58 +50,17 @@ def build_docs(use_languages=False, clone_repos=True): os.system(f"git clone {repo} {local_dir}") os.system(f"git -C {local_dir} pull") # update repo shutil.rmtree(DOCS / "en/hub/sdk", ignore_errors=True) # delete if exists - shutil.copytree(local_dir / "docs", DOCS / "en/hub/sdk") - shutil.rmtree(DOCS / "en/hub/sdk/reference") # temporarily delete reference until we find a solution for this + shutil.copytree(local_dir / "docs", DOCS / "en/hub/sdk") # for docs + shutil.rmtree(DOCS.parent / "hub_sdk", ignore_errors=True) # delete if exists + shutil.copytree(local_dir / "hub_sdk", DOCS.parent / "hub_sdk") # for mkdocstrings print(f"Cloned/Updated {repo} in {local_dir}") # Build the main documentation print(f"Building docs from {DOCS}") - subprocess.run(f"mkdocs build -f {DOCS}/mkdocs.yml", check=True, shell=True) - - # Build other localized documentations - if use_languages: - for file in DOCS.glob("mkdocs_*.yml"): - print(f"Building MkDocs site with configuration file: {file}") - subprocess.run(f"mkdocs build -f {file}", check=True, shell=True) - update_html_links() # update .md in href links + subprocess.run(f"mkdocs build -f {DOCS.parent}/mkdocs.yml", check=True, shell=True) print(f"Site built at {SITE}") -def update_html_links(): - """Update href links in HTML files to remove '.md' and '/index.md', excluding links starting with 'https://'.""" - html_files = Path(SITE).rglob("*.html") - total_updated_links = 0 - - for html_file in html_files: - with open(html_file, "r+", encoding="utf-8") as file: - content = file.read() - # Find all links to be updated, excluding those starting with 'https://' - links_to_update = re.findall(r'href="(?!https://)([^"]+?)(/index)?\.md"', content) - - # Update the content and count the number of links updated - updated_content, number_of_links_updated = re.subn( - r'href="(?!https://)([^"]+?)(/index)?\.md"', r'href="\1"', content - ) - total_updated_links += number_of_links_updated - - # Special handling for '/index' links - updated_content, number_of_index_links_updated = re.subn( - r'href="([^"]+)/index"', r'href="\1/"', updated_content - ) - total_updated_links += number_of_index_links_updated - - # Write the updated content back to the file - file.seek(0) - file.write(updated_content) - file.truncate() - - # Print updated links for this file - for link in links_to_update: - print(f"Updated link in {html_file}: {link[0]}") - - print(f"Total number of links updated: {total_updated_links}") - - def update_page_title(file_path: Path, new_title: str): """Update the title of an HTML file.""" @@ -134,15 +94,44 @@ def update_html_head(script=""): file.write(new_html_content) +def update_subdir_edit_links(subdir="", docs_url=""): + """Update the HTML head section of each file.""" + from bs4 import BeautifulSoup + + if str(subdir[0]) == "/": + subdir = str(subdir[0])[1:] + html_files = (SITE / subdir).rglob("*.html") + for html_file in tqdm(html_files, desc="Processing subdir files"): + with html_file.open("r", encoding="utf-8") as file: + soup = BeautifulSoup(file, "html.parser") + + # Find the anchor tag and update its href attribute + a_tag = soup.find("a", {"class": "md-content__button md-icon"}) + if a_tag and a_tag["title"] == "Edit this page": + a_tag["href"] = f"{docs_url}{a_tag['href'].split(subdir)[-1]}" + + # Write the updated HTML back to the file + with open(html_file, "w", encoding="utf-8") as file: + file.write(str(soup)) + + def main(): - # Build the docs + """Builds docs, updates titles and edit links, and prints local server command.""" build_docs() # Update titles update_page_title(SITE / "404.html", new_title="Ultralytics Docs - Not Found") + # Update edit links + update_subdir_edit_links( + subdir="hub/sdk/", # do not use leading slash + docs_url="https://github.com/ultralytics/hub-sdk/tree/develop/docs/", + ) + # Update HTML file head section - # update_html_head("") + script = "" + if any(script): + update_html_head(script) # Show command to serve built website print('Serve site at http://localhost:8000 with "python -m http.server --directory site"') diff --git a/docs/de/datasets/index.md b/docs/de/datasets/index.md deleted file mode 100644 index 53a96e51fb4..00000000000 --- a/docs/de/datasets/index.md +++ /dev/null @@ -1,127 +0,0 @@ ---- -comments: true -description: Erkunden Sie verschiedene von Ultralytics unterstützte Computer Vision Datensätze für Objekterkennung, Segmentierung, Posenschätzung, Bildklassifizierung und Multi-Objekt-Verfolgung. -keywords: Computer Vision, Datensätze, Ultralytics, YOLO, Objekterkennung, Instanzsegmentierung, Posenschätzung, Bildklassifizierung, Multi-Objekt-Verfolgung ---- - -# Übersicht über Datensätze - -Ultralytics bietet Unterstützung für verschiedene Datensätze an, um Computervisionsaufgaben wie Erkennung, Instanzsegmentierung, Posenschätzung, Klassifizierung und Verfolgung mehrerer Objekte zu erleichtern. Unten finden Sie eine Liste der wichtigsten Ultralytics-Datensätze, gefolgt von einer Zusammenfassung jeder Computervisionsaufgabe und den jeweiligen Datensätzen. - -!!! Note "Hinweis" - - 🚧 Unsere mehrsprachige Dokumentation befindet sich derzeit im Aufbau und wir arbeiten intensiv an deren Verbesserung. Vielen Dank für Ihre Geduld! 🙏 - -## [Erkennungsdatensätze](../../datasets/detect/index.md) - -Die Objekterkennung mittels Bounding Box ist eine Computervisionstechnik, die das Erkennen und Lokalisieren von Objekten in einem Bild anhand des Zeichnens einer Bounding Box um jedes Objekt beinhaltet. - -- [Argoverse](../../datasets/detect/argoverse.md): Ein Datensatz mit 3D-Tracking- und Bewegungsvorhersagedaten aus städtischen Umgebungen mit umfassenden Annotationen. -- [COCO](../../datasets/detect/coco.md): Ein umfangreicher Datensatz für Objekterkennung, Segmentierung und Beschreibung mit über 200.000 beschrifteten Bildern. -- [COCO8](../../datasets/detect/coco8.md): Enthält die ersten 4 Bilder aus COCO Train und COCO Val, geeignet für schnelle Tests. -- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): Ein Datensatz mit Bildern von Weizenköpfen aus aller Welt für Objekterkennungs- und Lokalisierungsaufgaben. -- [Objects365](../../datasets/detect/objects365.md): Ein hochwertiger, großer Datensatz für Objekterkennung mit 365 Objektkategorien und über 600.000 annotierten Bildern. -- [OpenImagesV7](../../datasets/detect/open-images-v7.md): Ein umfassender Datensatz von Google mit 1,7 Millionen Trainingsbildern und 42.000 Validierungsbildern. -- [SKU-110K](../../datasets/detect/sku-110k.md): Ein Datensatz mit dichter Objekterkennung in Einzelhandelsumgebungen mit über 11.000 Bildern und 1,7 Millionen Bounding Boxen. -- [VisDrone](../../datasets/detect/visdrone.md): Ein Datensatz mit Objekterkennungs- und Multi-Objekt-Tracking-Daten aus Drohnenaufnahmen mit über 10.000 Bildern und Videosequenzen. -- [VOC](../../datasets/detect/voc.md): Der Pascal Visual Object Classes (VOC) Datensatz für Objekterkennung und Segmentierung mit 20 Objektklassen und über 11.000 Bildern. -- [xView](../../datasets/detect/xview.md): Ein Datensatz für Objekterkennung in Überwachungsbildern mit 60 Objektkategorien und über 1 Million annotierten Objekten. - -## [Datensätze für Instanzsegmentierung](../../datasets/segment/index.md) - -Die Instanzsegmentierung ist eine Computervisionstechnik, die das Identifizieren und Lokalisieren von Objekten in einem Bild auf Pixelebene beinhaltet. - -- [COCO](../../datasets/segment/coco.md): Ein großer Datensatz für Objekterkennung, Segmentierung und Beschreibungsaufgaben mit über 200.000 beschrifteten Bildern. -- [COCO8-seg](../../datasets/segment/coco8-seg.md): Ein kleinerer Datensatz für Instanzsegmentierungsaufgaben, der eine Teilmenge von 8 COCO-Bildern mit Segmentierungsannotationen enthält. - -## [Posenschätzung](../../datasets/pose/index.md) - -Die Posenschätzung ist eine Technik, die verwendet wird, um die Position des Objekts relativ zur Kamera oder zum Weltkoordinatensystem zu bestimmen. - -- [COCO](../../datasets/pose/coco.md): Ein großer Datensatz mit menschlichen Pose-Annotationen für Posenschätzungsaufgaben. -- [COCO8-pose](../../datasets/pose/coco8-pose.md): Ein kleinerer Datensatz für Posenschätzungsaufgaben, der eine Teilmenge von 8 COCO-Bildern mit menschlichen Pose-Annotationen enthält. -- [Tiger-pose](../../datasets/pose/tiger-pose.md): Ein kompakter Datensatz bestehend aus 263 Bildern, die auf Tiger fokussiert sind, mit Annotationen von 12 Schlüsselpunkten pro Tiger für Posenschätzungsaufgaben. - -## [Bildklassifizierung](../../datasets/classify/index.md) - -Die Bildklassifizierung ist eine Computervisionsaufgabe, bei der ein Bild basierend auf seinem visuellen Inhalt in eine oder mehrere vordefinierte Klassen oder Kategorien eingeteilt wird. - -- [Caltech 101](../../datasets/classify/caltech101.md): Enthält Bilder von 101 Objektkategorien für Bildklassifizierungsaufgaben. -- [Caltech 256](../../datasets/classify/caltech256.md): Eine erweiterte Version von Caltech 101 mit 256 Objektkategorien und herausfordernderen Bildern. -- [CIFAR-10](../../datasets/classify/cifar10.md): Ein Datensatz mit 60.000 32x32 Farbbildern in 10 Klassen, mit 6.000 Bildern pro Klasse. -- [CIFAR-100](../../datasets/classify/cifar100.md): Eine erweiterte Version von CIFAR-10 mit 100 Objektkategorien und 600 Bildern pro Klasse. -- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): Ein Datensatz mit 70.000 Graustufenbildern von 10 Modekategorien für Bildklassifizierungsaufgaben. -- [ImageNet](../../datasets/classify/imagenet.md): Ein großer Datensatz für Objekterkennung und Bildklassifizierung mit über 14 Millionen Bildern und 20.000 Kategorien. -- [ImageNet-10](../../datasets/classify/imagenet10.md): Ein kleinerer Teildatensatz von ImageNet mit 10 Kategorien für schnelleres Experimentieren und Testen. -- [Imagenette](../../datasets/classify/imagenette.md): Ein kleinerer Teildatensatz von ImageNet, der 10 leicht unterscheidbare Klassen für ein schnelleres Training und Testen enthält. -- [Imagewoof](../../datasets/classify/imagewoof.md): Ein herausfordernderer Teildatensatz von ImageNet mit 10 Hundezuchtkategorien für Bildklassifizierungsaufgaben. -- [MNIST](../../datasets/classify/mnist.md): Ein Datensatz mit 70.000 Graustufenbildern von handgeschriebenen Ziffern für Bildklassifizierungsaufgaben. - -## [Orientierte Bounding Boxes (OBB)](../../datasets/obb/index.md) - -Orientierte Bounding Boxes (OBB) ist eine Methode in der Computervision für die Erkennung von geneigten Objekten in Bildern mithilfe von rotierten Bounding Boxen, die oft auf Luft- und Satellitenbilder angewendet wird. - -- [DOTAv2](../../datasets/obb/dota-v2.md): Ein beliebter OBB-Datensatz für Luftbildaufnahmen mit 1,7 Millionen Instanzen und 11.268 Bildern. - -## [Multi-Objekt-Verfolgung](../../datasets/track/index.md) - -Die Verfolgung mehrerer Objekte ist eine Computervisionstechnik, die das Erkennen und Verfolgen mehrerer Objekte über die Zeit in einer Videosequenz beinhaltet. - -- [Argoverse](../../datasets/detect/argoverse.md): Ein Datensatz mit 3D-Tracking- und Bewegungsvorhersagedaten aus städtischen Umgebungen mit umfassenden Annotationen für Multi-Objekt-Verfolgungsaufgaben. -- [VisDrone](../../datasets/detect/visdrone.md): Ein Datensatz mit Daten zur Objekterkennung und Multi-Objekt-Verfolgung aus Drohnenaufnahmen mit über 10.000 Bildern und Videosequenzen. - -## Neue Datensätze beitragen - -Das Bereitstellen eines neuen Datensatzes umfasst mehrere Schritte, um sicherzustellen, dass er gut in die bestehende Infrastruktur integriert werden kann. Unten finden Sie die notwendigen Schritte: - -### Schritte um einen neuen Datensatz beizutragen - -1. **Bilder sammeln**: Sammeln Sie die Bilder, die zum Datensatz gehören. Diese können von verschiedenen Quellen gesammelt werden, wie öffentlichen Datenbanken oder Ihrer eigenen Sammlung. - -2. **Bilder annotieren**: Annotieren Sie diese Bilder mit Bounding Boxen, Segmenten oder Schlüsselpunkten, je nach Aufgabe. - -3. **Annotationen exportieren**: Konvertieren Sie diese Annotationen in das von Ultralytics unterstützte YOLO `*.txt`-Dateiformat. - -4. **Datensatz organisieren**: Ordnen Sie Ihren Datensatz in die richtige Ordnerstruktur an. Sie sollten übergeordnete Verzeichnisse `train/` und `val/` haben, und innerhalb dieser je ein Unterverzeichnis `images/` und `labels/`. - - ``` - dataset/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **Eine `data.yaml`-Datei erstellen**: Erstellen Sie in Ihrem Stammverzeichnis des Datensatzes eine Datei `data.yaml`, die den Datensatz, die Klassen und andere notwendige Informationen beschreibt. - -6. **Bilder optimieren (Optional)**: Wenn Sie die Größe des Datensatzes für eine effizientere Verarbeitung reduzieren möchten, können Sie die Bilder mit dem untenstehenden Code optimieren. Dies ist nicht erforderlich, wird aber für kleinere Datensatzgrößen und schnellere Download-Geschwindigkeiten empfohlen. - -7. **Datensatz zippen**: Komprimieren Sie das gesamte Datensatzverzeichnis in eine Zip-Datei. - -8. **Dokumentation und PR**: Erstellen Sie eine Dokumentationsseite, die Ihren Datensatz beschreibt und wie er in das bestehende Framework passt. Danach reichen Sie einen Pull Request (PR) ein. Weitere Details zur Einreichung eines PR finden Sie in den [Ultralytics Beitragshinweisen](https://docs.ultralytics.com/help/contributing). - -### Beispielcode zum Optimieren und Zippen eines Datensatzes - -!!! Example "Optimieren und Zippen eines Datensatzes" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # Definieren des Verzeichnisses des Datensatzes - path = Path('Pfad/zum/Datensatz') - - # Bilder im Datensatz optimieren (optional) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # Datensatz in 'Pfad/zum/Datensatz.zip' zippen - zip_directory(path) - ``` - -Indem Sie diesen Schritten folgen, können Sie einen neuen Datensatz beitragen, der gut in die bestehende Struktur von Ultralytics integriert wird. diff --git a/docs/de/index.md b/docs/de/index.md deleted file mode 100644 index 1dca159f335..00000000000 --- a/docs/de/index.md +++ /dev/null @@ -1,83 +0,0 @@ ---- -comments: true -description: Entdecken Sie einen vollständigen Leitfaden zu Ultralytics YOLOv8, einem schnellen und präzisen Modell zur Objekterkennung und Bildsegmentierung. Installations-, Vorhersage-, Trainingstutorials und mehr. -keywords: Ultralytics, YOLOv8, Objekterkennung, Bildsegmentierung, maschinelles Lernen, Deep Learning, Computer Vision, YOLOv8 Installation, YOLOv8 Vorhersage, YOLOv8 Training, YOLO-Geschichte, YOLO-Lizenzen ---- - -
-

- - Ultralytics YOLO Banner -

- Ultralytics GitHub - space - Ultralytics LinkedIn - space - Ultralytics Twitter - space - Ultralytics YouTube - space - Ultralytics TikTok - space - Ultralytics Instagram - space - Ultralytics Discord -
-
- Ultralytics CI - Ultralytics Code Coverage - YOLOv8 Zitation - Docker Ziehungen - Discord -
- Auf Gradient ausführen - In Colab öffnen - In Kaggle öffnen -
- -Wir stellen [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics) vor, die neueste Version des renommierten Echtzeit-Modells zur Objekterkennung und Bildsegmentierung. YOLOv8 basiert auf den neuesten Erkenntnissen im Bereich Deep Learning und Computer Vision und bietet eine unvergleichliche Leistung hinsichtlich Geschwindigkeit und Genauigkeit. Sein optimiertes Design macht es für verschiedene Anwendungen geeignet und leicht an verschiedene Hardwareplattformen anpassbar, von Edge-Geräten bis hin zu Cloud-APIs. - -Erkunden Sie die YOLOv8-Dokumentation, eine umfassende Ressource, die Ihnen helfen soll, seine Funktionen und Fähigkeiten zu verstehen und zu nutzen. Ob Sie ein erfahrener Machine-Learning-Praktiker sind oder neu in diesem Bereich, dieses Hub zielt darauf ab, das Potenzial von YOLOv8 in Ihren Projekten zu maximieren - -!!! Note "Hinweis" - - 🚧 Unsere mehrsprachige Dokumentation wird derzeit entwickelt und wir arbeiten intensiv an ihrer Verbesserung. Wir danken für Ihre Geduld! 🙏 - -## Wo Sie beginnen sollten - -- **Installieren** Sie `ultralytics` mit pip und starten Sie in wenigen Minuten   [:material-clock-fast: Loslegen](quickstart.md){ .md-button } -- **Vorhersagen** Sie neue Bilder und Videos mit YOLOv8   [:octicons-image-16: Auf Bilder vorhersagen](modes/predict.md){ .md-button } -- **Trainieren** Sie ein neues YOLOv8-Modell mit Ihrem eigenen benutzerdefinierten Datensatz   [:fontawesome-solid-brain: Ein Modell trainieren](modes/train.md){ .md-button } -- **Erforschen** Sie YOLOv8-Aufgaben wie Segmentieren, Klassifizieren, Posenschätzung und Verfolgen   [:material-magnify-expand: Aufgaben erkunden](tasks/index.md){ .md-button } - -

-
- -
- Ansehen: Wie Sie ein YOLOv8-Modell auf Ihrem eigenen Datensatz in Google Colab trainieren. -

- -## YOLO: Eine kurze Geschichte - -[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once), ein beliebtes Modell zur Objekterkennung und Bildsegmentierung, wurde von Joseph Redmon und Ali Farhadi an der Universität von Washington entwickelt. Seit seiner Einführung im Jahr 2015 erfreut es sich aufgrund seiner hohen Geschwindigkeit und Genauigkeit großer Beliebtheit. - -- [YOLOv2](https://arxiv.org/abs/1612.08242), veröffentlicht im Jahr 2016, verbesserte das Originalmodell durch die Einführung von Batch-Normalisierung, Ankerkästen und Dimensionsclustern. -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), eingeführt im Jahr 2018, erhöhte die Leistung des Modells weiter mit einem effizienteren Backbone-Netzwerk, mehreren Ankern und räumlichem Pyramid-Pooling. -- [YOLOv4](https://arxiv.org/abs/2004.10934) wurde 2020 veröffentlicht und brachte Neuerungen wie Mosaic-Datenerweiterung, einen neuen ankerfreien Erkennungskopf und eine neue Verlustfunktion. -- [YOLOv5](https://github.com/ultralytics/yolov5) verbesserte die Leistung des Modells weiter und führte neue Funktionen ein, wie Hyperparameter-Optimierung, integriertes Experiment-Tracking und automatischen Export in beliebte Exportformate. -- [YOLOv6](https://github.com/meituan/YOLOv6) wurde 2022 von [Meituan](https://about.meituan.com/) als Open Source zur Verfügung gestellt und wird in vielen autonomen Lieferrobotern des Unternehmens eingesetzt. -- [YOLOv7](https://github.com/WongKinYiu/yolov7) führte zusätzliche Aufgaben ein, wie Posenschätzung auf dem COCO-Keypoints-Datensatz. -- [YOLOv8](https://github.com/ultralytics/ultralytics) ist die neueste Version von YOLO von Ultralytics. Als Spitzenmodell der neuesten Generation baut YOLOv8 auf dem Erfolg vorheriger Versionen auf und führt neue Funktionen und Verbesserungen für erhöhte Leistung, Flexibilität und Effizienz ein. YOLOv8 unterstützt eine vollständige Palette an Vision-KI-Aufgaben, einschließlich [Erkennung](tasks/detect.md), [Segmentierung](tasks/segment.md), [Posenschätzung](tasks/pose.md), [Verfolgung](modes/track.md) und [Klassifizierung](tasks/classify.md). Diese Vielseitigkeit ermöglicht es Benutzern, die Fähigkeiten von YOLOv8 in verschiedenen Anwendungen und Domänen zu nutzen. - -## YOLO-Lizenzen: Wie wird Ultralytics YOLO lizenziert? - -Ultralytics bietet zwei Lizenzoptionen, um unterschiedliche Einsatzszenarien zu berücksichtigen: - -- **AGPL-3.0-Lizenz**: Diese [OSI-geprüfte](https://opensource.org/licenses/) Open-Source-Lizenz ist ideal für Studenten und Enthusiasten und fördert offene Zusammenarbeit und Wissensaustausch. Weitere Details finden Sie in der [LIZENZ](https://github.com/ultralytics/ultralytics/blob/main/LICENSE)-Datei. -- **Enterprise-Lizenz**: Für die kommerzielle Nutzung konzipiert, ermöglicht diese Lizenz die problemlose Integration von Ultralytics-Software und KI-Modellen in kommerzielle Produkte und Dienstleistungen und umgeht die Open-Source-Anforderungen der AGPL-3.0. Wenn Ihr Szenario die Einbettung unserer Lösungen in ein kommerzielles Angebot beinhaltet, kontaktieren Sie uns über [Ultralytics-Lizenzierung](https://ultralytics.com/license). - -Unsere Lizenzstrategie ist darauf ausgerichtet sicherzustellen, dass jegliche Verbesserungen an unseren Open-Source-Projekten der Gemeinschaft zurückgegeben werden. Wir halten die Prinzipien von Open Source in Ehren ❤️ und es ist unser Anliegen, dass unsere Beiträge auf Weisen genutzt und erweitert werden können, die für alle vorteilhaft sind. diff --git a/docs/de/models/fast-sam.md b/docs/de/models/fast-sam.md deleted file mode 100644 index e726c5cdf65..00000000000 --- a/docs/de/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: Erkunden Sie FastSAM, eine CNN-basierte Lösung zur Echtzeit-Segmentierung von Objekten in Bildern. Verbesserte Benutzerinteraktion, Recheneffizienz und anpassbar für verschiedene Vision-Aufgaben. -keywords: FastSAM, maschinelles Lernen, CNN-basierte Lösung, Objektsegmentierung, Echtzeillösung, Ultralytics, Vision-Aufgaben, Bildverarbeitung, industrielle Anwendungen, Benutzerinteraktion ---- - -# Fast Segment Anything Model (FastSAM) - -Das Fast Segment Anything Model (FastSAM) ist eine neuartige, Echtzeit-CNN-basierte Lösung für die Segment Anything Aufgabe. Diese Aufgabe zielt darauf ab, jedes Objekt in einem Bild auf Basis verschiedener möglicher Benutzerinteraktionen zu segmentieren. FastSAM reduziert signifikant den Rechenbedarf, während es eine wettbewerbsfähige Leistung beibehält und somit für eine Vielzahl von Vision-Aufgaben praktisch einsetzbar ist. - -![Übersicht über die Architektur des Fast Segment Anything Model (FastSAM)](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## Überblick - -FastSAM wurde entwickelt, um die Einschränkungen des [Segment Anything Model (SAM)](sam.md) zu beheben, einem schweren Transformer-Modell mit erheblichem Rechenressourcenbedarf. Das FastSAM teilt die Segment Anything Aufgabe in zwei aufeinanderfolgende Stufen auf: die Instanzsegmentierung und die promptgesteuerte Auswahl. In der ersten Stufe wird [YOLOv8-seg](../tasks/segment.md) verwendet, um die Segmentierungsmasken aller Instanzen im Bild zu erzeugen. In der zweiten Stufe gibt es den Bereich von Interesse aus, der dem Prompt entspricht. - -## Hauptmerkmale - -1. **Echtzeitlösung:** Durch die Nutzung der Recheneffizienz von CNNs bietet FastSAM eine Echtzeitlösung für die Segment Anything Aufgabe und eignet sich somit für industrielle Anwendungen, die schnelle Ergebnisse erfordern. - -2. **Effizienz und Leistung:** FastSAM bietet eine signifikante Reduzierung des Rechen- und Ressourcenbedarfs, ohne die Leistungsqualität zu beeinträchtigen. Es erzielt eine vergleichbare Leistung wie SAM, verwendet jedoch drastisch reduzierte Rechenressourcen und ermöglicht so eine Echtzeitanwendung. - -3. **Promptgesteuerte Segmentierung:** FastSAM kann jedes Objekt in einem Bild anhand verschiedener möglicher Benutzerinteraktionsaufforderungen segmentieren. Dies ermöglicht Flexibilität und Anpassungsfähigkeit in verschiedenen Szenarien. - -4. **Basierend auf YOLOv8-seg:** FastSAM basiert auf [YOLOv8-seg](../tasks/segment.md), einem Objektdetektor mit einem Instanzsegmentierungsmodul. Dadurch ist es in der Lage, die Segmentierungsmasken aller Instanzen in einem Bild effektiv zu erzeugen. - -5. **Wettbewerbsfähige Ergebnisse auf Benchmarks:** Bei der Objektvorschlagsaufgabe auf MS COCO erzielt FastSAM hohe Punktzahlen bei deutlich schnellerem Tempo als [SAM](sam.md) auf einer einzelnen NVIDIA RTX 3090. Dies demonstriert seine Effizienz und Leistungsfähigkeit. - -6. **Praktische Anwendungen:** Der vorgeschlagene Ansatz bietet eine neue, praktische Lösung für eine Vielzahl von Vision-Aufgaben mit sehr hoher Geschwindigkeit, die zehn- oder hundertmal schneller ist als vorhandene Methoden. - -7. **Möglichkeit zur Modellkompression:** FastSAM zeigt, dass der Rechenaufwand erheblich reduziert werden kann, indem ein künstlicher Prior in die Struktur eingeführt wird. Dadurch eröffnen sich neue Möglichkeiten für große Modellarchitekturen für allgemeine Vision-Aufgaben. - -## Verfügbare Modelle, unterstützte Aufgaben und Betriebsmodi - -In dieser Tabelle werden die verfügbaren Modelle mit ihren spezifischen vorab trainierten Gewichten, den unterstützten Aufgaben und ihrer Kompatibilität mit verschiedenen Betriebsmodi wie [Inferenz](../modes/predict.md), [Validierung](../modes/val.md), [Training](../modes/train.md) und [Export](../modes/export.md) angezeigt. Dabei stehen ✅ Emojis für unterstützte Modi und ❌ Emojis für nicht unterstützte Modi. - -| Modelltyp | Vorab trainierte Gewichte | Unterstützte Aufgaben | Inferenz | Validierung | Training | Export | -|-----------|---------------------------|---------------------------------------------|----------|-------------|----------|--------| -| FastSAM-s | `FastSAM-s.pt` | [Instanzsegmentierung](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [Instanzsegmentierung](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Beispiele für die Verwendung - -Die FastSAM-Modelle lassen sich problemlos in Ihre Python-Anwendungen integrieren. Ultralytics bietet eine benutzerfreundliche Python-API und CLI-Befehle zur Vereinfachung der Entwicklung. - -### Verwendung der Methode `predict` - -Um eine Objekterkennung auf einem Bild durchzuführen, verwenden Sie die Methode `predict` wie folgt: - -!!! Example "Beispiel" - - === "Python" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # Definieren Sie die Quelle für die Inferenz - source = 'Pfad/zum/bus.jpg' - - # Erstellen Sie ein FastSAM-Modell - model = FastSAM('FastSAM-s.pt') # oder FastSAM-x.pt - - # Führen Sie die Inferenz auf einem Bild durch - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # Bereiten Sie ein Prompt-Process-Objekt vor - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # Alles-Prompt - ann = prompt_process.everything_prompt() - - # Bbox Standardform [0,0,0,0] -> [x1,y1,x2,y2] - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # Text-Prompt - ann = prompt_process.text_prompt(text='ein Foto von einem Hund') - - # Punkt-Prompt - # Punkte Standard [[0,0]] [[x1,y1],[x2,y2]] - # Punktbezeichnung Standard [0] [1,0] 0:Hintergrund, 1:Vordergrund - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # Laden Sie ein FastSAM-Modell und segmentieren Sie alles damit - yolo segment predict model=FastSAM-s.pt source=Pfad/zum/bus.jpg imgsz=640 - ``` - -Dieser Code-Ausschnitt zeigt die Einfachheit des Ladens eines vorab trainierten Modells und das Durchführen einer Vorhersage auf einem Bild. - -### Verwendung von `val` - -Die Validierung des Modells auf einem Datensatz kann wie folgt durchgeführt werden: - -!!! Example "Beispiel" - - === "Python" - ```python - from ultralytics import FastSAM - - # Erstellen Sie ein FastSAM-Modell - model = FastSAM('FastSAM-s.pt') # oder FastSAM-x.pt - - # Validieren Sie das Modell - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # Laden Sie ein FastSAM-Modell und validieren Sie es auf dem COCO8-Beispieldatensatz mit Bildgröße 640 - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -Bitte beachten Sie, dass FastSAM nur die Erkennung und Segmentierung einer einzigen Objektklasse unterstützt. Das bedeutet, dass es alle Objekte als dieselbe Klasse erkennt und segmentiert. Daher müssen Sie beim Vorbereiten des Datensatzes alle Objektkategorie-IDs in 0 umwandeln. - -## Offizielle Verwendung von FastSAM - -FastSAM ist auch direkt aus dem [https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM) Repository erhältlich. Hier ist ein kurzer Überblick über die typischen Schritte, die Sie unternehmen könnten, um FastSAM zu verwenden: - -### Installation - -1. Klonen Sie das FastSAM-Repository: - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. Erstellen und aktivieren Sie eine Conda-Umgebung mit Python 3.9: - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. Navigieren Sie zum geklonten Repository und installieren Sie die erforderlichen Pakete: - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. Installieren Sie das CLIP-Modell: - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### Beispielverwendung - -1. Laden Sie eine [Modell-Sicherung](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing) herunter. - -2. Verwenden Sie FastSAM für Inferenz. Beispielbefehle: - - - Segmentieren Sie alles in einem Bild: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - Segmentieren Sie bestimmte Objekte anhand eines Textprompts: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "der gelbe Hund" - ``` - - - Segmentieren Sie Objekte innerhalb eines Begrenzungsrahmens (geben Sie die Boxkoordinaten im xywh-Format an): - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - Segmentieren Sie Objekte in der Nähe bestimmter Punkte: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -Sie können FastSAM auch über eine [Colab-Demo](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing) oder die [HuggingFace-Web-Demo](https://huggingface.co/spaces/An-619/FastSAM) testen, um eine visuelle Erfahrung zu machen. - -## Zitate und Danksagungen - -Wir möchten den Autoren von FastSAM für ihre bedeutenden Beiträge auf dem Gebiet der Echtzeit-Instanzsegmentierung danken: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Die ursprüngliche FastSAM-Arbeit ist auf [arXiv](https://arxiv.org/abs/2306.12156) zu finden. Die Autoren haben ihre Arbeit öffentlich zugänglich gemacht, und der Code ist auf [GitHub](https://github.com/CASIA-IVA-Lab/FastSAM) verfügbar. Wir schätzen ihre Bemühungen, das Fachgebiet voranzutreiben und ihre Arbeit der breiteren Gemeinschaft zugänglich zu machen. diff --git a/docs/de/models/index.md b/docs/de/models/index.md deleted file mode 100644 index 4482ccc0dcc..00000000000 --- a/docs/de/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Entdecken Sie die vielfältige Palette an Modellen der YOLO-Familie, SAM, MobileSAM, FastSAM, YOLO-NAS und RT-DETR, die von Ultralytics unterstützt werden. Beginnen Sie mit Beispielen für die CLI- und Python-Nutzung. -keywords: Ultralytics, Dokumentation, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, Modelle, Architekturen, Python, CLI ---- - -# Von Ultralytics unterstützte Modelle - -Willkommen bei der Modell-Dokumentation von Ultralytics! Wir bieten Unterstützung für eine breite Palette von Modellen, die jeweils für spezifische Aufgaben wie [Objekterkennung](../tasks/detect.md), [Instanzsegmentierung](../tasks/segment.md), [Bildklassifizierung](../tasks/classify.md), [Posenschätzung](../tasks/pose.md) und [Multi-Objekt-Tracking](../modes/track.md) maßgeschneidert sind. Wenn Sie daran interessiert sind, Ihre Modellarchitektur bei Ultralytics beizutragen, sehen Sie sich unseren [Beitragenden-Leitfaden](../../help/contributing.md) an. - -!!! Note "Hinweis" - - 🚧 Unsere Dokumentation in verschiedenen Sprachen ist derzeit im Aufbau und wir arbeiten hart daran, sie zu verbessern. Vielen Dank für Ihre Geduld! 🙏 - -## Vorgestellte Modelle - -Hier sind einige der wichtigsten unterstützten Modelle: - -1. **[YOLOv3](yolov3.md)**: Die dritte Iteration der YOLO-Modellfamilie, ursprünglich von Joseph Redmon, bekannt für ihre effiziente Echtzeit-Objekterkennungsfähigkeiten. -2. **[YOLOv4](yolov4.md)**: Ein dunkelnetz-natives Update von YOLOv3, veröffentlicht von Alexey Bochkovskiy im Jahr 2020. -3. **[YOLOv5](yolov5.md)**: Eine verbesserte Version der YOLO-Architektur von Ultralytics, die bessere Leistungs- und Geschwindigkeitskompromisse im Vergleich zu früheren Versionen bietet. -4. **[YOLOv6](yolov6.md)**: Veröffentlicht von [Meituan](https://about.meituan.com/) im Jahr 2022 und in vielen autonomen Lieferrobotern des Unternehmens im Einsatz. -5. **[YOLOv7](yolov7.md)**: Aktualisierte YOLO-Modelle, die 2022 von den Autoren von YOLOv4 veröffentlicht wurden. -6. **[YOLOv8](yolov8.md) NEU 🚀**: Die neueste Version der YOLO-Familie, mit erweiterten Fähigkeiten wie Instanzsegmentierung, Pose/Schlüsselpunktschätzung und Klassifizierung. -7. **[Segment Anything Model (SAM)](sam.md)**: Metas Segment Anything Model (SAM). -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**: MobileSAM für mobile Anwendungen, von der Kyung Hee University. -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**: FastSAM von der Image & Video Analysis Group, Institute of Automation, Chinesische Akademie der Wissenschaften. -10. **[YOLO-NAS](yolo-nas.md)**: YOLO Neural Architecture Search (NAS) Modelle. -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)**: Baidus PaddlePaddle Realtime Detection Transformer (RT-DETR) Modelle. - -

-
- -
- Anschauen: Führen Sie Ultralytics YOLO-Modelle in nur wenigen Codezeilen aus. -

- -## Einstieg: Nutzungbeispiele - -Dieses Beispiel bietet einfache YOLO-Trainings- und Inferenzbeispiele. Für vollständige Dokumentationen über diese und andere [Modi](../modes/index.md) siehe die Dokumentationsseiten [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) und [Export](../modes/export.md). - -Beachten Sie, dass das folgende Beispiel für YOLOv8 [Detect](../tasks/detect.md) Modelle zur Objekterkennung ist. Für zusätzliche unterstützte Aufgaben siehe die Dokumentation zu [Segment](../tasks/segment.md), [Classify](../tasks/classify.md) und [Pose](../tasks/pose.md). - -!!! Example "Beispiel" - - === "Python" - - Vorgefertigte PyTorch `*.pt` Modelle sowie Konfigurationsdateien `*.yaml` können den Klassen `YOLO()`, `SAM()`, `NAS()` und `RTDETR()` übergeben werden, um eine Modellinstanz in Python zu erstellen: - - ```python - from ultralytics import YOLO - - # Laden eines COCO-vortrainierten YOLOv8n Modells - model = YOLO('yolov8n.pt') - - # Modellinformationen anzeigen (optional) - model.info() - - # Model auf dem COCO8-Beispieldatensatz für 100 Epochen trainieren - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Inferenz mit dem YOLOv8n Modell auf das Bild 'bus.jpg' ausführen - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI-Befehle sind verfügbar, um die Modelle direkt auszuführen: - - ```bash - # Ein COCO-vortrainiertes YOLOv8n Modell laden und auf dem COCO8-Beispieldatensatz für 100 Epochen trainieren - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Ein COCO-vortrainiertes YOLOv8n Modell laden und Inferenz auf das Bild 'bus.jpg' ausführen - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## Neue Modelle beitragen - -Sind Sie daran interessiert, Ihr Modell bei Ultralytics beizutragen? Großartig! Wir sind immer offen dafür, unser Modellportfolio zu erweitern. - -1. **Repository forken**: Beginnen Sie mit dem Forken des [Ultralytics GitHub-Repositorys](https://github.com/ultralytics/ultralytics). - -2. **Ihren Fork klonen**: Klonen Sie Ihren Fork auf Ihre lokale Maschine und erstellen Sie einen neuen Branch, um daran zu arbeiten. - -3. **Ihr Modell implementieren**: Fügen Sie Ihr Modell entsprechend den in unserem [Beitragenden-Leitfaden](../../help/contributing.md) bereitgestellten Kodierungsstandards und Richtlinien hinzu. - -4. **Gründlich testen**: Stellen Sie sicher, dass Sie Ihr Modell sowohl isoliert als auch als Teil des Pipelines gründlich testen. - -5. **Eine Pull-Anfrage erstellen**: Sobald Sie mit Ihrem Modell zufrieden sind, erstellen Sie eine Pull-Anfrage zum Hauptrepository zur Überprüfung. - -6. **Code-Review & Zusammenführen**: Nach der Überprüfung, wenn Ihr Modell unseren Kriterien entspricht, wird es in das Hauptrepository zusammengeführt. - -Für detaillierte Schritte konsultieren Sie unseren [Beitragenden-Leitfaden](../../help/contributing.md). diff --git a/docs/de/models/mobile-sam.md b/docs/de/models/mobile-sam.md deleted file mode 100644 index 7f301756b78..00000000000 --- a/docs/de/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: Erfahren Sie mehr über MobileSAM, dessen Implementierung, den Vergleich mit dem Original-SAM und wie Sie es im Ultralytics-Framework herunterladen und testen können. Verbessern Sie Ihre mobilen Anwendungen heute. -keywords: MobileSAM, Ultralytics, SAM, mobile Anwendungen, Arxiv, GPU, API, Bildencoder, Maskendekoder, Modell-Download, Testmethode ---- - -![MobileSAM Logo](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# Mobile Segment Anything (MobileSAM) - -Das MobileSAM-Paper ist jetzt auf [arXiv](https://arxiv.org/pdf/2306.14289.pdf) verfügbar. - -Eine Demonstration von MobileSAM, das auf einer CPU ausgeführt wird, finden Sie unter diesem [Demo-Link](https://huggingface.co/spaces/dhkim2810/MobileSAM). Die Leistung auf einer Mac i5 CPU beträgt etwa 3 Sekunden. Auf der Hugging Face-Demo führt die Benutzeroberfläche und CPUs mit niedrigerer Leistung zu einer langsameren Reaktion, aber die Funktion bleibt effektiv. - -MobileSAM ist in verschiedenen Projekten implementiert, darunter [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything), [AnyLabeling](https://github.com/vietanhdev/anylabeling) und [Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D). - -MobileSAM wird mit einem einzigen GPU und einem 100K-Datensatz (1% der Originalbilder) in weniger als einem Tag trainiert. Der Code für dieses Training wird in Zukunft verfügbar gemacht. - -## Verfügbarkeit von Modellen, unterstützte Aufgaben und Betriebsarten - -Die folgende Tabelle zeigt die verfügbaren Modelle mit ihren spezifischen vortrainierten Gewichten, die unterstützten Aufgaben und ihre Kompatibilität mit unterschiedlichen Betriebsarten wie [Inferenz](../modes/predict.md), [Validierung](../modes/val.md), [Training](../modes/train.md) und [Export](../modes/export.md). Unterstützte Betriebsarten werden mit ✅-Emojis und nicht unterstützte Betriebsarten mit ❌-Emojis angezeigt. - -| Modelltyp | Vortrainierte Gewichte | Unterstützte Aufgaben | Inferenz | Validierung | Training | Export | -|-----------|------------------------|---------------------------------------------|----------|-------------|----------|--------| -| MobileSAM | `mobile_sam.pt` | [Instanzsegmentierung](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Anpassung von SAM zu MobileSAM - -Da MobileSAM die gleiche Pipeline wie das Original-SAM beibehält, haben wir das ursprüngliche Preprocessing, Postprocessing und alle anderen Schnittstellen eingebunden. Personen, die derzeit das ursprüngliche SAM verwenden, können daher mit minimalem Aufwand zu MobileSAM wechseln. - -MobileSAM bietet vergleichbare Leistungen wie das ursprüngliche SAM und behält dieselbe Pipeline, mit Ausnahme eines Wechsels des Bildencoders. Konkret ersetzen wir den ursprünglichen, leistungsstarken ViT-H-Encoder (632M) durch einen kleineren Tiny-ViT-Encoder (5M). Auf einem einzelnen GPU arbeitet MobileSAM in etwa 12 ms pro Bild: 8 ms auf dem Bildencoder und 4 ms auf dem Maskendekoder. - -Die folgende Tabelle bietet einen Vergleich der Bildencoder, die auf ViT basieren: - -| Bildencoder | Original-SAM | MobileSAM | -|-----------------|--------------|-----------| -| Parameter | 611M | 5M | -| Geschwindigkeit | 452ms | 8ms | - -Sowohl das ursprüngliche SAM als auch MobileSAM verwenden denselben promptgeführten Maskendekoder: - -| Maskendekoder | Original-SAM | MobileSAM | -|-----------------|--------------|-----------| -| Parameter | 3.876M | 3.876M | -| Geschwindigkeit | 4ms | 4ms | - -Hier ist ein Vergleich der gesamten Pipeline: - -| Gesamte Pipeline (Enc+Dec) | Original-SAM | MobileSAM | -|----------------------------|--------------|-----------| -| Parameter | 615M | 9.66M | -| Geschwindigkeit | 456ms | 12ms | - -Die Leistung von MobileSAM und des ursprünglichen SAM werden sowohl mit einem Punkt als auch mit einem Kasten als Prompt demonstriert. - -![Bild mit Punkt als Prompt](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![Bild mit Kasten als Prompt](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -Mit seiner überlegenen Leistung ist MobileSAM etwa 5-mal kleiner und 7-mal schneller als das aktuelle FastSAM. Weitere Details finden Sie auf der [MobileSAM-Projektseite](https://github.com/ChaoningZhang/MobileSAM). - -## Testen von MobileSAM in Ultralytics - -Wie beim ursprünglichen SAM bieten wir eine unkomplizierte Testmethode in Ultralytics an, einschließlich Modi für Punkt- und Kasten-Prompts. - -### Modell-Download - -Sie können das Modell [hier](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt) herunterladen. - -### Punkt-Prompt - -!!! Example "Beispiel" - - === "Python" - ```python - from ultralytics import SAM - - # Laden Sie das Modell - model = SAM('mobile_sam.pt') - - # Vorhersage einer Segmentierung basierend auf einem Punkt-Prompt - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### Kasten-Prompt - -!!! Example "Beispiel" - - === "Python" - ```python - from ultralytics import SAM - - # Laden Sie das Modell - model = SAM('mobile_sam.pt') - - # Vorhersage einer Segmentierung basierend auf einem Kasten-Prompt - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -Wir haben `MobileSAM` und `SAM` mit derselben API implementiert. Für weitere Verwendungsinformationen sehen Sie bitte die [SAM-Seite](sam.md). - -## Zitate und Danksagungen - -Wenn Sie MobileSAM in Ihrer Forschungs- oder Entwicklungsarbeit nützlich finden, zitieren Sie bitte unser Paper: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/de/models/rtdetr.md b/docs/de/models/rtdetr.md deleted file mode 100644 index dbc0b412364..00000000000 --- a/docs/de/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: Entdecken Sie die Funktionen und Vorteile von RT-DETR, dem effizienten und anpassungsfähigen Echtzeitobjektdetektor von Baidu, der von Vision Transformers unterstützt wird, einschließlich vortrainierter Modelle. -keywords: RT-DETR, Baidu, Vision Transformers, Objekterkennung, Echtzeitleistung, CUDA, TensorRT, IoU-bewusste Query-Auswahl, Ultralytics, Python API, PaddlePaddle ---- - -# Baidus RT-DETR: Ein Echtzeit-Objektdetektor auf Basis von Vision Transformers - -## Überblick - -Der Real-Time Detection Transformer (RT-DETR), entwickelt von Baidu, ist ein moderner End-to-End-Objektdetektor, der Echtzeitleistung mit hoher Genauigkeit bietet. Er nutzt die Leistung von Vision Transformers (ViT), um Multiskalen-Funktionen effizient zu verarbeiten, indem intra-skaliere Interaktion und eine skalenübergreifende Fusion entkoppelt werden. RT-DETR ist hoch anpassungsfähig und unterstützt flexible Anpassung der Inferenzgeschwindigkeit durch Verwendung verschiedener Decoder-Schichten ohne erneutes Training. Das Modell übertrifft viele andere Echtzeit-Objektdetektoren auf beschleunigten Backends wie CUDA mit TensorRT. - -![Beispielbild des Modells](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**Übersicht von Baidus RT-DETR.** Die Modellarchitekturdiagramm des RT-DETR zeigt die letzten drei Stufen des Backbone {S3, S4, S5} als Eingabe für den Encoder. Der effiziente Hybrid-Encoder verwandelt Multiskalen-Funktionen durch intraskalare Feature-Interaktion (AIFI) und das skalenübergreifende Feature-Fusion-Modul (CCFM) in eine Sequenz von Bildmerkmalen. Die IoU-bewusste Query-Auswahl wird verwendet, um eine feste Anzahl von Bildmerkmalen als anfängliche Objekt-Queries für den Decoder auszuwählen. Der Decoder optimiert iterativ Objekt-Queries, um Boxen und Vertrauenswerte zu generieren ([Quelle](https://arxiv.org/pdf/2304.08069.pdf)). - -### Hauptmerkmale - -- **Effizienter Hybrid-Encoder:** Baidus RT-DETR verwendet einen effizienten Hybrid-Encoder, der Multiskalen-Funktionen verarbeitet, indem intra-skaliere Interaktion und eine skalenübergreifende Fusion entkoppelt werden. Dieses einzigartige Design auf Basis von Vision Transformers reduziert die Rechenkosten und ermöglicht die Echtzeit-Objekterkennung. -- **IoU-bewusste Query-Auswahl:** Baidus RT-DETR verbessert die Initialisierung von Objekt-Queries, indem IoU-bewusste Query-Auswahl verwendet wird. Dadurch kann das Modell sich auf die relevantesten Objekte in der Szene konzentrieren und die Erkennungsgenauigkeit verbessern. -- **Anpassbare Inferenzgeschwindigkeit:** Baidus RT-DETR ermöglicht flexible Anpassungen der Inferenzgeschwindigkeit durch Verwendung unterschiedlicher Decoder-Schichten ohne erneutes Training. Diese Anpassungsfähigkeit erleichtert den praktischen Einsatz in verschiedenen Echtzeit-Objekterkennungsszenarien. - -## Vortrainierte Modelle - -Die Ultralytics Python API bietet vortrainierte PaddlePaddle RT-DETR-Modelle in verschiedenen Skalierungen: - -- RT-DETR-L: 53,0% AP auf COCO val2017, 114 FPS auf T4 GPU -- RT-DETR-X: 54,8% AP auf COCO val2017, 74 FPS auf T4 GPU - -## Beispiele für die Verwendung - -Das folgende Beispiel enthält einfache Trainings- und Inferenzbeispiele für RT-DETRR. Für die vollständige Dokumentation zu diesen und anderen [Modi](../modes/index.md) siehe die Dokumentationsseiten für [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) und [Export](../modes/export.md). - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import RTDETR - - # Laden Sie ein vortrainiertes RT-DETR-l Modell auf COCO - model = RTDETR('rtdetr-l.pt') - - # Zeigen Sie Informationen über das Modell an (optional) - model.info() - - # Trainieren Sie das Modell auf dem COCO8-Beispiel-Datensatz für 100 Epochen - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Führen Sie die Inferenz mit dem RT-DETR-l Modell auf dem Bild 'bus.jpg' aus - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # Laden Sie ein vortrainiertes RT-DETR-l Modell auf COCO und trainieren Sie es auf dem COCO8-Beispiel-Datensatz für 100 Epochen - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # Laden Sie ein vortrainiertes RT-DETR-l Modell auf COCO und führen Sie die Inferenz auf dem Bild 'bus.jpg' aus - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## Unterstützte Aufgaben und Modi - -In dieser Tabelle werden die Modelltypen, die spezifischen vortrainierten Gewichte, die von jedem Modell unterstützten Aufgaben und die verschiedenen Modi ([Train](../modes/train.md), [Val](../modes/val.md), [Predict](../modes/predict.md), [Export](../modes/export.md)), die unterstützt werden, mit ✅-Emoji angezeigt. - -| Modelltyp | Vortrainierte Gewichte | Unterstützte Aufgaben | Inferenz | Validierung | Training | Exportieren | -|--------------------|------------------------|---------------------------------------|----------|-------------|----------|-------------| -| RT-DETR Groß | `rtdetr-l.pt` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR Extra-Groß | `rtdetr-x.pt` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## Zitate und Danksagungen - -Wenn Sie Baidus RT-DETR in Ihrer Forschungs- oder Entwicklungsarbeit verwenden, zitieren Sie bitte das [ursprüngliche Papier](https://arxiv.org/abs/2304.08069): - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Wir möchten Baidu und dem [PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection)-Team für die Erstellung und Pflege dieser wertvollen Ressource für die Computer-Vision-Community danken. Ihre Beitrag zum Gebiet der Entwicklung des Echtzeit-Objekterkenners auf Basis von Vision Transformers, RT-DETR, wird sehr geschätzt. - -*Keywords: RT-DETR, Transformer, ViT, Vision Transformers, Baidu RT-DETR, PaddlePaddle, Paddle Paddle RT-DETR, Objekterkennung in Echtzeit, objekterkennung basierend auf Vision Transformers, vortrainierte PaddlePaddle RT-DETR Modelle, Verwendung von Baidus RT-DETR, Ultralytics Python API* diff --git a/docs/de/models/sam.md b/docs/de/models/sam.md deleted file mode 100644 index 9ca50b9e564..00000000000 --- a/docs/de/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: Erkunden Sie das innovative Segment Anything Model (SAM) von Ultralytics, das Echtzeit-Bildsegmentierung ermöglicht. Erfahren Sie mehr über die promptable Segmentierung, die Zero-Shot-Performance und die Anwendung. -keywords: Ultralytics, Bildsegmentierung, Segment Anything Model, SAM, SA-1B-Datensatz, Echtzeit-Performance, Zero-Shot-Transfer, Objekterkennung, Bildanalyse, maschinelles Lernen ---- - -# Segment Anything Model (SAM) - -Willkommen an der Spitze der Bildsegmentierung mit dem Segment Anything Model (SAM). Dieses revolutionäre Modell hat mit promptabler Bildsegmentierung und Echtzeit-Performance neue Standards in diesem Bereich gesetzt. - -## Einführung in SAM: Das Segment Anything Model - -Das Segment Anything Model (SAM) ist ein innovatives Bildsegmentierungsmodell, das promptable Segmentierung ermöglicht und so eine beispiellose Vielseitigkeit bei der Bildanalyse bietet. SAM bildet das Herzstück der Segment Anything Initiative, einem bahnbrechenden Projekt, das ein neuartiges Modell, eine neue Aufgabe und einen neuen Datensatz für die Bildsegmentierung einführt. - -Dank seiner fortschrittlichen Konstruktion kann SAM sich an neue Bildverteilungen und Aufgaben anpassen, auch ohne Vorwissen. Das wird als Zero-Shot-Transfer bezeichnet. Trainiert wurde SAM auf dem umfangreichen [SA-1B-Datensatz](https://ai.facebook.com/datasets/segment-anything/), der über 1 Milliarde Masken auf 11 Millionen sorgfältig kuratierten Bildern enthält. SAM hat beeindruckende Zero-Shot-Performance gezeigt und in vielen Fällen frühere vollständig überwachte Ergebnisse übertroffen. - -![Beispielbild aus dem Datensatz](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -Beispielimagen mit überlagernden Masken aus unserem neu eingeführten Datensatz SA-1B. SA-1B enthält 11 Millionen diverse, hochauflösende, lizenzierte und die Privatsphäre schützende Bilder und 1,1 Milliarden qualitativ hochwertige Segmentierungsmasken. Diese wurden vollautomatisch von SAM annotiert und sind nach menschlichen Bewertungen und zahlreichen Experimenten von hoher Qualität und Vielfalt. Die Bilder sind nach der Anzahl der Masken pro Bild gruppiert (im Durchschnitt sind es etwa 100 Masken pro Bild). - -## Hauptmerkmale des Segment Anything Model (SAM) - -- **Promptable Segmentierungsaufgabe:** SAM wurde mit der Ausführung einer promptable Segmentierungsaufgabe entwickelt, wodurch es valide Segmentierungsmasken aus beliebigen Prompts generieren kann, z. B. räumlichen oder textuellen Hinweisen zur Identifizierung eines Objekts. -- **Fortgeschrittene Architektur:** Das Segment Anything Model verwendet einen leistungsfähigen Bild-Encoder, einen Prompt-Encoder und einen leichten Masken-Decoder. Diese einzigartige Architektur ermöglicht flexibles Prompting, Echtzeitmaskenberechnung und Berücksichtigung von Mehrdeutigkeiten in Segmentierungsaufgaben. -- **Der SA-1B-Datensatz:** Eingeführt durch das Segment Anything Projekt, enthält der SA-1B-Datensatz über 1 Milliarde Masken auf 11 Millionen Bildern. Als bisher größter Segmentierungsdatensatz liefert er SAM eine vielfältige und umfangreiche Datenquelle für das Training. -- **Zero-Shot-Performance:** SAM zeigt herausragende Zero-Shot-Performance in verschiedenen Segmentierungsaufgaben und ist damit ein einsatzbereites Werkzeug für vielfältige Anwendungen mit minimalem Bedarf an prompt engineering. - -Für eine detaillierte Betrachtung des Segment Anything Models und des SA-1B-Datensatzes besuchen Sie bitte die [Segment Anything Website](https://segment-anything.com) und lesen Sie das Forschungspapier [Segment Anything](https://arxiv.org/abs/2304.02643). - -## Verfügbare Modelle, unterstützte Aufgaben und Betriebsmodi - -Diese Tabelle zeigt die verfügbaren Modelle mit ihren spezifischen vortrainierten Gewichten, die unterstützten Aufgaben und ihre Kompatibilität mit verschiedenen Betriebsmodi wie [Inference](../modes/predict.md), [Validierung](../modes/val.md), [Training](../modes/train.md) und [Export](../modes/export.md), wobei ✅ Emojis für unterstützte Modi und ❌ Emojis für nicht unterstützte Modi verwendet werden. - -| Modelltyp | Vortrainierte Gewichte | Unterstützte Aufgaben | Inference | Validierung | Training | Export | -|-----------|------------------------|---------------------------------------------|-----------|-------------|----------|--------| -| SAM base | `sam_b.pt` | [Instanzsegmentierung](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| SAM large | `sam_l.pt` | [Instanzsegmentierung](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Wie man SAM verwendet: Vielseitigkeit und Power in der Bildsegmentierung - -Das Segment Anything Model kann für eine Vielzahl von Aufgaben verwendet werden, die über die Trainingsdaten hinausgehen. Dazu gehören Kantenerkennung, Generierung von Objektvorschlägen, Instanzsegmentierung und vorläufige Text-to-Mask-Vorhersage. Mit prompt engineering kann SAM sich schnell an neue Aufgaben und Datenverteilungen anpassen und sich so als vielseitiges und leistungsstarkes Werkzeug für alle Anforderungen der Bildsegmentierung etablieren. - -### Beispiel für SAM-Vorhersage - -!!! Example "Segmentierung mit Prompts" - - Bildsegmentierung mit gegebenen Prompts. - - === "Python" - - ```python - from ultralytics import SAM - - # Modell laden - model = SAM('sam_b.pt') - - # Modellinformationen anzeigen (optional) - model.info() - - # Inferenz mit Bounding Box Prompt - model('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # Inferenz mit Point Prompt - model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "Alles segmentieren" - - Das ganze Bild segmentieren. - - === "Python" - - ```python - from ultralytics import SAM - - # Modell laden - model = SAM('sam_b.pt') - - # Modellinformationen anzeigen (optional) - model.info() - - # Inferenz - model('Pfad/zum/Bild.jpg') - ``` - - === "CLI" - - ```bash - # Inferenz mit einem SAM-Modell - yolo predict model=sam_b.pt source=Pfad/zum/Bild.jpg - ``` - -- Die Logik hier besteht darin, das gesamte Bild zu segmentieren, wenn keine Prompts (Bounding Box/Point/Maske) übergeben werden. - -!!! Example "Beispiel SAMPredictor" - - Dadurch können Sie das Bild einmal festlegen und mehrmals Inferenz mit Prompts ausführen, ohne den Bild-Encoder mehrfach auszuführen. - - === "Prompt-Inferenz" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # SAMPredictor erstellen - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # Bild festlegen - predictor.set_image("ultralytics/assets/zidane.jpg") # Festlegung mit Bild-Datei - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # Festlegung mit np.ndarray - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # Bild zurücksetzen - predictor.reset_image() - ``` - - Alles segmentieren mit zusätzlichen Argumenten. - - === "Alles segmentieren" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # SAMPredictor erstellen - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # Mit zusätzlichen Argumenten segmentieren - results = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- Weitere zusätzliche Argumente für `Alles segmentieren` finden Sie in der [`Predictor/generate` Referenz](../../../reference/models/sam/predict.md). - -## Vergleich von SAM und YOLOv8 - -Hier vergleichen wir Meta's kleinstes SAM-Modell, SAM-b, mit Ultralytics kleinstem Segmentierungsmodell, [YOLOv8n-seg](../tasks/segment.md): - -| Modell | Größe | Parameter | Geschwindigkeit (CPU) | -|------------------------------------------------|-------------------------------|------------------------------|----------------------------------------| -| Meta's SAM-b | 358 MB | 94,7 M | 51096 ms/pro Bild | -| [MobileSAM](mobile-sam.md) | 40,7 MB | 10,1 M | 46122 ms/pro Bild | -| [FastSAM-s](fast-sam.md) mit YOLOv8-Backbone | 23,7 MB | 11,8 M | 115 ms/pro Bild | -| Ultralytics [YOLOv8n-seg](../tasks/segment.md) | **6,7 MB** (53,4-mal kleiner) | **3,4 M** (27,9-mal kleiner) | **59 ms/pro Bild** (866-mal schneller) | - -Dieser Vergleich zeigt die Größen- und Geschwindigkeitsunterschiede zwischen den Modellen. Während SAM einzigartige Fähigkeiten für die automatische Segmentierung bietet, konkurriert es nicht direkt mit YOLOv8-Segmentierungsmodellen, die kleiner, schneller und effizienter sind. - -Die Tests wurden auf einem Apple M2 MacBook aus dem Jahr 2023 mit 16 GB RAM durchgeführt. Um diesen Test zu reproduzieren: - -!!! Example "Beispiel" - - === "Python" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # SAM-b profilieren - model = SAM('sam_b.pt') - model.info() - model('ultralytics/assets') - - # MobileSAM profilieren - model = SAM('mobile_sam.pt') - model.info() - model('ultralytics/assets') - - # FastSAM-s profilieren - model = FastSAM('FastSAM-s.pt') - model.info() - model('ultralytics/assets') - - # YOLOv8n-seg profilieren - model = YOLO('yolov8n-seg.pt') - model.info() - model('ultralytics/assets') - ``` - -## Auto-Annotierung: Der schnelle Weg zu Segmentierungsdatensätzen - -Die Auto-Annotierung ist eine wichtige Funktion von SAM, mit der Benutzer mithilfe eines vortrainierten Detektionsmodells einen [Segmentierungsdatensatz](https://docs.ultralytics.com/datasets/segment) generieren können. Diese Funktion ermöglicht eine schnelle und genaue Annotation einer großen Anzahl von Bildern, ohne dass zeitaufwändiges manuelles Labeling erforderlich ist. - -### Generieren Sie Ihren Segmentierungsdatensatz mit einem Detektionsmodell - -Um Ihren Datensatz mit dem Ultralytics-Framework automatisch zu annotieren, verwenden Sie die `auto_annotate` Funktion wie folgt: - -!!! Example "Beispiel" - - === "Python" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="Pfad/zum/Bilderordner", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| Argument | Typ | Beschreibung | Standard | -|------------|---------------------|---------------------------------------------------------------------------------------------------------------------------|--------------| -| data | str | Pfad zu einem Ordner, der die zu annotierenden Bilder enthält. | | -| det_model | str, optional | Vortrainiertes YOLO-Detektionsmodell. Standardmäßig 'yolov8x.pt'. | 'yolov8x.pt' | -| sam_model | str, optional | Vortrainiertes SAM-Segmentierungsmodell. Standardmäßig 'sam_b.pt'. | 'sam_b.pt' | -| device | str, optional | Gerät, auf dem die Modelle ausgeführt werden. Standardmäßig ein leerer String (CPU oder GPU, falls verfügbar). | | -| output_dir | str, None, optional | Verzeichnis zum Speichern der annotierten Ergebnisse. Standardmäßig ein 'labels'-Ordner im selben Verzeichnis wie 'data'. | None | - -Die `auto_annotate` Funktion nimmt den Pfad zu Ihren Bildern entgegen, mit optionalen Argumenten für das vortrainierte Detektions- und SAM-Segmentierungsmodell, das Gerät, auf dem die Modelle ausgeführt werden sollen, und das Ausgabeverzeichnis, in dem die annotierten Ergebnisse gespeichert werden sollen. - -Die Auto-Annotierung mit vortrainierten Modellen kann die Zeit und den Aufwand für die Erstellung hochwertiger Segmentierungsdatensätze erheblich reduzieren. Diese Funktion ist besonders vorteilhaft für Forscher und Entwickler, die mit großen Bildersammlungen arbeiten. Sie ermöglicht es ihnen, sich auf die Modellentwicklung und -bewertung zu konzentrieren, anstatt auf die manuelle Annotation. - -## Zitate und Danksagungen - -Wenn Sie SAM in Ihrer Forschungs- oder Entwicklungsarbeit nützlich finden, erwägen Sie bitte, unser Paper zu zitieren: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Wir möchten Meta AI für die Erstellung und Pflege dieser wertvollen Ressource für die Computer Vision Community danken. - -*Stichworte: Segment Anything, Segment Anything Model, SAM, Meta SAM, Bildsegmentierung, Promptable Segmentierung, Zero-Shot-Performance, SA-1B-Datensatz, fortschrittliche Architektur, Auto-Annotierung, Ultralytics, vortrainierte Modelle, SAM Base, SAM Large, Instanzsegmentierung, Computer Vision, Künstliche Intelligenz, maschinelles Lernen, Datenannotation, Segmentierungsmasken, Detektionsmodell, YOLO Detektionsmodell, Bibtex, Meta AI.* diff --git a/docs/de/models/yolo-nas.md b/docs/de/models/yolo-nas.md deleted file mode 100644 index 952aa2dcf13..00000000000 --- a/docs/de/models/yolo-nas.md +++ /dev/null @@ -1,121 +0,0 @@ ---- -comments: true -description: Erfahren Sie mehr über YOLO-NAS, ein herausragendes Modell für die Objekterkennung. Erfahren Sie mehr über seine Funktionen, vortrainierte Modelle, Nutzung mit der Ultralytics Python API und vieles mehr. -keywords: YOLO-NAS, Deci AI, Objekterkennung, Deep Learning, Neural Architecture Search, Ultralytics Python API, YOLO-Modell, vortrainierte Modelle, Quantisierung, Optimierung, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## Übersicht - -Entwickelt von Deci AI, ist YOLO-NAS ein bahnbrechendes Modell für die Objekterkennung. Es ist das Ergebnis fortschrittlicher Technologien zur Neural Architecture Search und wurde sorgfältig entworfen, um die Einschränkungen früherer YOLO-Modelle zu überwinden. Mit signifikanten Verbesserungen in der Quantisierungsunterstützung und Abwägung von Genauigkeit und Latenz stellt YOLO-NAS einen großen Fortschritt in der Objekterkennung dar. - -![Modellbeispielbild](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**Übersicht über YOLO-NAS.** YOLO-NAS verwendet Quantisierungsblöcke und selektive Quantisierung für optimale Leistung. Das Modell weist bei der Konvertierung in seine quantisierte Version mit INT8 einen minimalen Präzisionsverlust auf, was im Vergleich zu anderen Modellen eine signifikante Verbesserung darstellt. Diese Entwicklungen führen zu einer überlegenen Architektur mit beispiellosen Fähigkeiten zur Objekterkennung und herausragender Leistung. - -### Schlüsselfunktionen - -- **Quantisierungsfreundlicher Basiselement:** YOLO-NAS führt ein neues Basiselement ein, das für Quantisierung geeignet ist und eine der wesentlichen Einschränkungen früherer YOLO-Modelle angeht. -- **Raffiniertes Training und Quantisierung:** YOLO-NAS nutzt fortschrittliche Trainingsschemata und post-training Quantisierung zur Leistungsverbesserung. -- **AutoNAC-Optimierung und Vortraining:** YOLO-NAS verwendet die AutoNAC-Optimierung und wird auf prominenten Datensätzen wie COCO, Objects365 und Roboflow 100 vortrainiert. Dieses Vortraining macht es äußerst geeignet für die Objekterkennung in Produktionsumgebungen. - -## Vortrainierte Modelle - -Erleben Sie die Leistungsfähigkeit der Objekterkennung der nächsten Generation mit den vortrainierten YOLO-NAS-Modellen von Ultralytics. Diese Modelle sind darauf ausgelegt, sowohl bei Geschwindigkeit als auch bei Genauigkeit hervorragende Leistung zu liefern. Wählen Sie aus einer Vielzahl von Optionen, die auf Ihre spezifischen Anforderungen zugeschnitten sind: - -| Modell | mAP | Latenz (ms) | -|------------------|-------|-------------| -| YOLO-NAS S | 47,5 | 3,21 | -| YOLO-NAS M | 51,55 | 5,85 | -| YOLO-NAS L | 52,22 | 7,87 | -| YOLO-NAS S INT-8 | 47,03 | 2,36 | -| YOLO-NAS M INT-8 | 51,0 | 3,78 | -| YOLO-NAS L INT-8 | 52,1 | 4,78 | - -Jede Modellvariante ist darauf ausgelegt, eine Balance zwischen Mean Average Precision (mAP) und Latenz zu bieten und Ihre Objekterkennungsaufgaben für Performance und Geschwindigkeit zu optimieren. - -## Beispiele zur Verwendung - -Ultralytics hat es einfach gemacht, YOLO-NAS-Modelle in Ihre Python-Anwendungen über unser `ultralytics` Python-Paket zu integrieren. Das Paket bietet eine benutzerfreundliche Python-API, um den Prozess zu optimieren. - -Die folgenden Beispiele zeigen, wie Sie YOLO-NAS-Modelle mit dem `ultralytics`-Paket für Inferenz und Validierung verwenden: - -### Beispiele für Inferenz und Validierung - -In diesem Beispiel validieren wir YOLO-NAS-s auf dem COCO8-Datensatz. - -!!! Example "Beispiel" - - Dieses Beispiel bietet einfachen Code für Inferenz und Validierung für YOLO-NAS. Für die Verarbeitung von Inferenzergebnissen siehe den [Predict](../modes/predict.md)-Modus. Für die Verwendung von YOLO-NAS mit zusätzlichen Modi siehe [Val](../modes/val.md) und [Export](../modes/export.md). Das YOLO-NAS-Modell im `ultralytics`-Paket unterstützt kein Training. - - === "Python" - - Vorab trainierte `*.pt`-Modelldateien von PyTorch können der Klasse `NAS()` übergeben werden, um eine Modellinstanz in Python zu erstellen: - - ```python - from ultralytics import NAS - - # Laden Sie ein auf COCO vortrainiertes YOLO-NAS-s-Modell - model = NAS('yolo_nas_s.pt') - - # Modelinformationen anzeigen (optional) - model.info() - - # Validieren Sie das Modell am Beispiel des COCO8-Datensatzes - results = model.val(data='coco8.yaml') - - # Führen Sie Inferenz mit dem YOLO-NAS-s-Modell auf dem Bild 'bus.jpg' aus - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI-Befehle sind verfügbar, um die Modelle direkt auszuführen: - - ```bash - # Laden Sie ein auf COCO vortrainiertes YOLO-NAS-s-Modell und validieren Sie die Leistung am Beispiel des COCO8-Datensatzes - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # Laden Sie ein auf COCO vortrainiertes YOLO-NAS-s-Modell und führen Sie Inferenz auf dem Bild 'bus.jpg' aus - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## Unterstützte Aufgaben und Modi - -Wir bieten drei Varianten der YOLO-NAS-Modelle an: Small (s), Medium (m) und Large (l). Jede Variante ist dazu gedacht, unterschiedliche Berechnungs- und Leistungsanforderungen zu erfüllen: - -- **YOLO-NAS-s**: Optimiert für Umgebungen mit begrenzten Rechenressourcen, bei denen Effizienz entscheidend ist. -- **YOLO-NAS-m**: Bietet einen ausgewogenen Ansatz und ist für die Objekterkennung im Allgemeinen mit höherer Genauigkeit geeignet. -- **YOLO-NAS-l**: Maßgeschneidert für Szenarien, bei denen höchste Genauigkeit gefordert ist und Rechenressourcen weniger einschränkend sind. - -Im Folgenden finden Sie eine detaillierte Übersicht über jedes Modell, einschließlich Links zu den vortrainierten Gewichten, den unterstützten Aufgaben und deren Kompatibilität mit verschiedenen Betriebsmodi. - -| Modelltyp | Vortrainierte Gewichte | Unterstützte Aufgaben | Inferenz | Validierung | Training | Export | -|------------|-----------------------------------------------------------------------------------------------|---------------------------------------|----------|-------------|----------|--------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## Zitierungen und Danksagungen - -Wenn Sie YOLO-NAS in Ihrer Forschungs- oder Entwicklungsarbeit verwenden, zitieren Sie bitte SuperGradients: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -Wir möchten dem [SuperGradients](https://github.com/Deci-AI/super-gradients/)-Team von Deci AI für ihre Bemühungen bei der Erstellung und Pflege dieser wertvollen Ressource für die Computer Vision Community danken. Wir sind der Meinung, dass YOLO-NAS mit seiner innovativen Architektur und seinen herausragenden Fähigkeiten zur Objekterkennung ein wichtiges Werkzeug für Entwickler und Forscher gleichermaßen wird. - -*Keywords: YOLO-NAS, Deci AI, Objekterkennung, Deep Learning, Neural Architecture Search, Ultralytics Python API, YOLO-Modell, SuperGradients, vortrainierte Modelle, quantisierungsfreundliches Basiselement, fortschrittliche Trainingsschemata, post-training Quantisierung, AutoNAC-Optimierung, COCO, Objects365, Roboflow 100* diff --git a/docs/de/models/yolov3.md b/docs/de/models/yolov3.md deleted file mode 100644 index de1cf46a60f..00000000000 --- a/docs/de/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Erhalten Sie eine Übersicht über YOLOv3, YOLOv3-Ultralytics und YOLOv3u. Erfahren Sie mehr über ihre wichtigsten Funktionen, Verwendung und unterstützte Aufgaben für die Objekterkennung. -keywords: YOLOv3, YOLOv3-Ultralytics, YOLOv3u, Objekterkennung, Inferenz, Training, Ultralytics ---- - -# YOLOv3, YOLOv3-Ultralytics und YOLOv3u - -## Übersicht - -Dieses Dokument bietet eine Übersicht über drei eng verwandte Modelle zur Objekterkennung, nämlich [YOLOv3](https://pjreddie.com/darknet/yolo/), [YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3) und [YOLOv3u](https://github.com/ultralytics/ultralytics). - -1. **YOLOv3:** Dies ist die dritte Version des You Only Look Once (YOLO) Objekterkennungsalgorithmus. Ursprünglich entwickelt von Joseph Redmon, verbesserte YOLOv3 seine Vorgängermodelle durch die Einführung von Funktionen wie mehrskaligen Vorhersagen und drei verschiedenen Größen von Erkennungskernen. - -2. **YOLOv3-Ultralytics:** Dies ist die Implementierung des YOLOv3-Modells von Ultralytics. Es reproduziert die ursprüngliche YOLOv3-Architektur und bietet zusätzliche Funktionalitäten, wie die Unterstützung für weitere vortrainierte Modelle und einfachere Anpassungsoptionen. - -3. **YOLOv3u:** Dies ist eine aktualisierte Version von YOLOv3-Ultralytics, die den anchor-freien, objektfreien Split Head aus den YOLOv8-Modellen einbezieht. YOLOv3u verwendet die gleiche Backbone- und Neck-Architektur wie YOLOv3, aber mit dem aktualisierten Erkennungskopf von YOLOv8. - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## Wichtigste Funktionen - -- **YOLOv3:** Einführung der Verwendung von drei unterschiedlichen Skalen für die Erkennung unter Verwendung von drei verschiedenen Größen von Erkennungskernen: 13x13, 26x26 und 52x52. Dadurch wurde die Erkennungsgenauigkeit für Objekte unterschiedlicher Größe erheblich verbessert. Darüber hinaus fügte YOLOv3 Funktionen wie Mehrfachkennzeichnungen für jeden Begrenzungsrahmen und ein besseres Feature-Extraktionsnetzwerk hinzu. - -- **YOLOv3-Ultralytics:** Ultralytics' Implementierung von YOLOv3 bietet die gleiche Leistung wie das ursprüngliche Modell, bietet jedoch zusätzliche Unterstützung für weitere vortrainierte Modelle, zusätzliche Trainingsmethoden und einfachere Anpassungsoptionen. Dadurch wird es vielseitiger und benutzerfreundlicher für praktische Anwendungen. - -- **YOLOv3u:** Dieses aktualisierte Modell enthält den anchor-freien, objektfreien Split Head aus YOLOv8. Durch die Beseitigung der Notwendigkeit vordefinierter Ankerfelder und Objektheitsscores kann dieses Entwurfsmerkmal für den Erkennungskopf die Fähigkeit des Modells verbessern, Objekte unterschiedlicher Größe und Form zu erkennen. Dadurch wird YOLOv3u robuster und genauer für Aufgaben der Objekterkennung. - -## Unterstützte Aufgaben und Modi - -Die YOLOv3-Serie, einschließlich YOLOv3, YOLOv3-Ultralytics und YOLOv3u, ist speziell für Aufgaben der Objekterkennung konzipiert. Diese Modelle sind bekannt für ihre Effektivität in verschiedenen realen Szenarien und kombinieren Genauigkeit und Geschwindigkeit. Jede Variante bietet einzigartige Funktionen und Optimierungen, die sie für eine Vielzahl von Anwendungen geeignet machen. - -Alle drei Modelle unterstützen einen umfangreichen Satz von Modi, um Vielseitigkeit in verschiedenen Phasen der Modellbereitstellung und -entwicklung zu gewährleisten. Zu diesen Modi gehören [Inferenz](../modes/predict.md), [Validierung](../modes/val.md), [Training](../modes/train.md) und [Export](../modes/export.md), was den Benutzern ein vollständiges Toolkit für eine effektive Objekterkennung bietet. - -| Modelltyp | Unterstützte Aufgaben | Inferenz | Validierung | Training | Export | -|--------------------|---------------------------------------|----------|-------------|----------|--------| -| YOLOv3 | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Diese Tabelle bietet einen schnellen Überblick über die Fähigkeiten jeder YOLOv3-Variante und hebt ihre Vielseitigkeit und Eignung für verschiedene Aufgaben und Betriebsmodi in Workflows zur Objekterkennung hervor. - -## Beispiele zur Verwendung - -Dieses Beispiel enthält einfache Trainings- und Inferenzbeispiele für YOLOv3. Für die vollständige Dokumentation zu diesen und anderen [Modi](../modes/index.md) siehe die Seiten zur [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) und [Export](../modes/export.md). - -!!! Example "Beispiel" - - === "Python" - - Vorgefertigte PyTorch-Modelle im `*.pt`-Format sowie Konfigurationsdateien im `*.yaml`-Format können an die `YOLO()`-Klasse übergeben werden, um eine Modellinstanz in Python zu erstellen: - - ```python - from ultralytics import YOLO - - # Lade ein vortrainiertes YOLOv3n-Modell für COCO - model = YOLO('yolov3n.pt') - - # Zeige Informationen zum Modell an (optional) - model.info() - - # Trainiere das Modell mit dem COCO8-Beispieldatensatz für 100 Epochen - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Führe Inferenz mit dem YOLOv3n-Modell auf dem Bild "bus.jpg" durch - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI-Befehle stehen zur Verfügung, um die Modelle direkt auszuführen: - - ```bash - # Lade ein vortrainiertes YOLOv3n-Modell und trainiere es mit dem COCO8-Beispieldatensatz für 100 Epochen - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Lade ein vortrainiertes YOLOv3n-Modell und führe Inferenz auf dem Bild "bus.jpg" aus - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## Zitate und Anerkennungen - -Wenn Sie YOLOv3 in Ihrer Forschung verwenden, zitieren Sie bitte die ursprünglichen YOLO-Papiere und das Ultralytics YOLOv3-Repository: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -Vielen Dank an Joseph Redmon und Ali Farhadi für die Entwicklung des originalen YOLOv3. diff --git a/docs/de/models/yolov4.md b/docs/de/models/yolov4.md deleted file mode 100644 index 3d3fd2dcd27..00000000000 --- a/docs/de/models/yolov4.md +++ /dev/null @@ -1,71 +0,0 @@ ---- -comments: true -description: Erforschen Sie unseren detaillierten Leitfaden zu YOLOv4, einem hochmodernen Echtzeit-Objektdetektor. Erfahren Sie mehr über seine architektonischen Highlights, innovativen Funktionen und Anwendungsbeispiele. -keywords: ultralytics, YOLOv4, Objekterkennung, neuronales Netzwerk, Echtzeit-Erkennung, Objektdetektor, maschinelles Lernen ---- - -# YOLOv4: Schnelle und präzise Objekterkennung - -Willkommen auf der Ultralytics-Dokumentationsseite für YOLOv4, einem hochmodernen, Echtzeit-Objektdetektor, der 2020 von Alexey Bochkovskiy unter [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet) veröffentlicht wurde. YOLOv4 wurde entwickelt, um das optimale Gleichgewicht zwischen Geschwindigkeit und Genauigkeit zu bieten und ist somit eine ausgezeichnete Wahl für viele Anwendungen. - -![YOLOv4 Architekturdiagramm](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**YOLOv4 Architekturdiagramm**. Zeigt das komplexe Netzwerkdesign von YOLOv4, einschließlich der Backbone-, Neck- und Head-Komponenten sowie ihrer verbundenen Schichten für eine optimale Echtzeit-Objekterkennung. - -## Einleitung - -YOLOv4 steht für You Only Look Once Version 4. Es handelt sich um ein Echtzeit-Objekterkennungsmodell, das entwickelt wurde, um die Grenzen früherer YOLO-Versionen wie [YOLOv3](yolov3.md) und anderer Objekterkennungsmodelle zu überwinden. Im Gegensatz zu anderen konvolutionellen neuronalen Netzwerken (CNN), die auf Objekterkennung basieren, ist YOLOv4 nicht nur für Empfehlungssysteme geeignet, sondern auch für eigenständiges Prozessmanagement und Reduzierung der Benutzereingabe. Durch den Einsatz von herkömmlichen Grafikprozessoreinheiten (GPUs) ermöglicht es YOLOv4 eine Massennutzung zu einem erschwinglichen Preis und ist so konzipiert, dass es in Echtzeit auf einer herkömmlichen GPU funktioniert, wobei nur eine solche GPU für das Training erforderlich ist. - -## Architektur - -YOLOv4 nutzt mehrere innovative Funktionen, die zusammenarbeiten, um seine Leistung zu optimieren. Dazu gehören Weighted-Residual-Connections (WRC), Cross-Stage-Partial-connections (CSP), Cross mini-Batch Normalization (CmBN), Self-adversarial-training (SAT), Mish-Aktivierung, Mosaic-Datenaugmentation, DropBlock-Regularisierung und CIoU-Verlust. Diese Funktionen werden kombiniert, um erstklassige Ergebnisse zu erzielen. - -Ein typischer Objektdetektor besteht aus mehreren Teilen, darunter der Eingabe, dem Backbone, dem Neck und dem Head. Das Backbone von YOLOv4 ist auf ImageNet vorgeschult und wird zur Vorhersage von Klassen und Begrenzungsrahmen von Objekten verwendet. Das Backbone kann aus verschiedenen Modellen wie VGG, ResNet, ResNeXt oder DenseNet stammen. Der Neck-Teil des Detektors wird verwendet, um Merkmalskarten von verschiedenen Stufen zu sammeln und umfasst normalerweise mehrere Bottom-up-Pfade und mehrere Top-down-Pfade. Der Head-Teil wird schließlich zur Durchführung der endgültigen Objekterkennung und Klassifizierung verwendet. - -## Bag of Freebies - -YOLOv4 verwendet auch Methoden, die als "Bag of Freebies" bekannt sind. Dabei handelt es sich um Techniken, die die Genauigkeit des Modells während des Trainings verbessern, ohne die Kosten der Inferenz zu erhöhen. Datenaugmentation ist eine häufige Bag of Freebies-Technik, die in der Objekterkennung verwendet wird, um die Variabilität der Eingabebilder zu erhöhen und die Robustheit des Modells zu verbessern. Beispiele für Datenaugmentation sind photometrische Verzerrungen (Anpassung von Helligkeit, Kontrast, Farbton, Sättigung und Rauschen eines Bildes) und geometrische Verzerrungen (Hinzufügen von zufälliger Skalierung, Ausschnitt, Spiegelung und Rotation). Diese Techniken helfen dem Modell, sich besser an verschiedene Arten von Bildern anzupassen. - -## Funktionen und Leistung - -YOLOv4 ist für optimale Geschwindigkeit und Genauigkeit in der Objekterkennung konzipiert. Die Architektur von YOLOv4 umfasst CSPDarknet53 als Backbone, PANet als Neck und YOLOv3 als Detektionskopf. Diese Konstruktion ermöglicht es YOLOv4, beeindruckend schnelle Objekterkennungen durchzuführen und ist somit für Echtzeitanwendungen geeignet. YOLOv4 zeichnet sich auch durch Genauigkeit aus und erzielt erstklassige Ergebnisse in Objekterkennungs-Benchmarks. - -## Beispiele für die Verwendung - -Zum Zeitpunkt der Erstellung dieser Dokumentation unterstützt Ultralytics derzeit keine YOLOv4-Modelle. Daher müssen sich Benutzer, die YOLOv4 verwenden möchten, direkt an das YOLOv4 GitHub-Repository für Installations- und Verwendungshinweise wenden. - -Hier ist ein kurzer Überblick über die typischen Schritte, die Sie unternehmen könnten, um YOLOv4 zu verwenden: - -1. Besuchen Sie das YOLOv4 GitHub-Repository: [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). - -2. Befolgen Sie die in der README-Datei bereitgestellten Anweisungen zur Installation. Dies beinhaltet in der Regel das Klonen des Repositories, die Installation der erforderlichen Abhängigkeiten und das Einrichten der erforderlichen Umgebungsvariablen. - -3. Sobald die Installation abgeschlossen ist, können Sie das Modell gemäß den in dem Repository bereitgestellten Verwendungshinweisen trainieren und verwenden. Dies beinhaltet in der Regel die Vorbereitung des Datensatzes, die Konfiguration der Modellparameter, das Training des Modells und die anschließende Verwendung des trainierten Modells zur Durchführung der Objekterkennung. - -Bitte beachten Sie, dass die spezifischen Schritte je nach Ihrer spezifischen Anwendung und dem aktuellen Stand des YOLOv4-Repositories variieren können. Es wird daher dringend empfohlen, sich direkt an die Anweisungen im YOLOv4-GitHub-Repository zu halten. - -Wir bedauern etwaige Unannehmlichkeiten und werden uns bemühen, dieses Dokument mit Verwendungsbeispielen für Ultralytics zu aktualisieren, sobald die Unterstützung für YOLOv4 implementiert ist. - -## Fazit - -YOLOv4 ist ein leistungsstarkes und effizientes Modell zur Objekterkennung, das eine Balance zwischen Geschwindigkeit und Genauigkeit bietet. Durch den Einsatz einzigartiger Funktionen und Bag of Freebies-Techniken während des Trainings erzielt es hervorragende Ergebnisse in Echtzeit-Objekterkennungsaufgaben. YOLOv4 kann von jedem mit einer herkömmlichen GPU trainiert und verwendet werden, was es für eine Vielzahl von Anwendungen zugänglich und praktisch macht. - -## Zitate und Anerkennungen - -Wir möchten den Autoren von YOLOv4 für ihren bedeutenden Beitrag auf dem Gebiet der Echtzeit-Objekterkennung danken: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Die originale YOLOv4-Publikation finden Sie auf [arXiv](https://arxiv.org/abs/2004.10934). Die Autoren haben ihre Arbeit öffentlich zugänglich gemacht und der Code kann auf [GitHub](https://github.com/AlexeyAB/darknet) abgerufen werden. Wir schätzen ihre Bemühungen, das Fachgebiet voranzubringen und ihre Arbeit der breiteren Community zugänglich zu machen. diff --git a/docs/de/models/yolov5.md b/docs/de/models/yolov5.md deleted file mode 100644 index 049426067f8..00000000000 --- a/docs/de/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: Entdecken Sie YOLOv5u, eine verbesserte Version des YOLOv5-Modells mit einem optimierten Verhältnis von Genauigkeit und Geschwindigkeit sowie zahlreiche vorab trainierte Modelle für verschiedene Objekterkennungsaufgaben. -keywords: YOLOv5u, Objekterkennung, vorab trainierte Modelle, Ultralytics, Inferenz, Validierung, YOLOv5, YOLOv8, Ankerfrei, Objektlos, Echtzeitanwendungen, Maschinelles Lernen ---- - -# YOLOv5 - -## Übersicht - -YOLOv5u steht für eine Weiterentwicklung der Methoden zur Objekterkennung. Basierend auf der grundlegenden Architektur des von Ultralytics entwickelten YOLOv5-Modells integriert YOLOv5u den ankerfreien, objektlosen Split-Kopf, ein Feature, das zuvor in den YOLOv8-Modellen eingeführt wurde. Diese Anpassung verfeinert die Architektur des Modells und führt zu einem optimierten Verhältnis von Genauigkeit und Geschwindigkeit bei der Objekterkennung. Basierend auf den empirischen Ergebnissen und den abgeleiteten Features bietet YOLOv5u eine effiziente Alternative für diejenigen, die robuste Lösungen sowohl in der Forschung als auch in praktischen Anwendungen suchen. - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## Hauptmerkmale - -- **Ankerfreier Split-Ultralytics-Kopf:** Herkömmliche Objekterkennungsmodelle verwenden vordefinierte Ankerboxen, um die Position von Objekten vorherzusagen. YOLOv5u modernisiert diesen Ansatz. Durch die Verwendung eines ankerfreien Split-Ultralytics-Kopfes wird ein flexiblerer und anpassungsfähigerer Detektionsmechanismus gewährleistet, der die Leistung in verschiedenen Szenarien verbessert. - -- **Optimiertes Verhältnis von Genauigkeit und Geschwindigkeit:** Geschwindigkeit und Genauigkeit ziehen oft in entgegengesetzte Richtungen. Aber YOLOv5u stellt diese Abwägung in Frage. Es bietet eine ausgewogene Balance, die Echtzeitdetektionen ohne Einbußen bei der Genauigkeit ermöglicht. Diese Funktion ist besonders wertvoll für Anwendungen, die schnelle Reaktionen erfordern, wie autonome Fahrzeuge, Robotik und Echtzeitanalyse von Videos. - -- **Vielfalt an vorab trainierten Modellen:** YOLOv5u bietet eine Vielzahl von vorab trainierten Modellen, da verschiedene Aufgaben unterschiedliche Werkzeuge erfordern. Ob Sie sich auf Inferenz, Validierung oder Training konzentrieren, es wartet ein maßgeschneidertes Modell auf Sie. Diese Vielfalt gewährleistet, dass Sie nicht nur eine Einheitslösung verwenden, sondern ein speziell für Ihre einzigartige Herausforderung feinabgestimmtes Modell. - -## Unterstützte Aufgaben und Modi - -Die YOLOv5u-Modelle mit verschiedenen vorab trainierten Gewichten eignen sich hervorragend für Aufgaben zur [Objekterkennung](../tasks/detect.md). Sie unterstützen eine umfassende Palette von Modi, die sie für verschiedene Anwendungen von der Entwicklung bis zur Bereitstellung geeignet machen. - -| Modelltyp | Vorab trainierte Gewichte | Aufgabe | Inferenz | Validierung | Training | Export | -|-----------|-----------------------------------------------------------------------------------------------------------------------------|---------------------------------------|----------|-------------|----------|--------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Diese Tabelle bietet eine detaillierte Übersicht über die verschiedenen Varianten des YOLOv5u-Modells und hebt ihre Anwendbarkeit in der Objekterkennung sowie die Unterstützung unterschiedlicher Betriebsmodi wie [Inferenz](../modes/predict.md), [Validierung](../modes/val.md), [Training](../modes/train.md) und [Export](../modes/export.md) hervor. Diese umfassende Unterstützung ermöglicht es Benutzern, die Fähigkeiten der YOLOv5u-Modelle in einer Vielzahl von Objekterkennungsszenarien voll auszuschöpfen. - -## Leistungskennzahlen - -!!! Leistung - - === "Erkennung" - - Siehe [Erkennungsdokumentation](https://docs.ultralytics.com/tasks/detect/) für Beispiele zur Verwendung dieser Modelle, die auf [COCO](https://docs.ultralytics.com/datasets/detect/coco/) trainiert wurden und 80 vorab trainierte Klassen enthalten. - - | Modell | YAML | Größe
(Pixel) | mAPval
50-95 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) | - |---------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|-----------------------|----------------------|------------------------------------------|-----------------------------------------------|--------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34,3 | 73,6 | 1,06 | 2,6 | 7,7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43,0 | 120,7 | 1,27 | 9,1 | 24,0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49,0 | 233,9 | 1,86 | 25,1 | 64,2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52,2 | 408,4 | 2,50 | 53,2 | 135,0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53,2 | 763,2 | 3,81 | 97,2 | 246,4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1.280 | 42,1 | 211,0 | 1,83 | 4,3 | 7,8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1.280 | 48,6 | 422,6 | 2,34 | 15,3 | 24,6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1.280 | 53,6 | 810,9 | 4,36 | 41,2 | 65,7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1.280 | 55,7 | 1.470,9 | 5,47 | 86,1 | 137,4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1.280 | 56,8 | 2.436,5 | 8,98 | 155,4 | 250,7 | - -## Beispiele zur Verwendung - -Dieses Beispiel enthält einfache Beispiele zur Schulung und Inferenz mit YOLOv5. Die vollständige Dokumentation zu diesen und anderen [Modi](../modes/index.md) finden Sie in den Seiten [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) und [Export](../modes/export.md). - -!!! Example "Beispiel" - - === "Python" - - PyTorch-vortrainierte `*.pt`-Modelle sowie Konfigurationsdateien `*.yaml` können an die `YOLO()`-Klasse übergeben werden, um eine Modellinstanz in Python zu erstellen: - - ```python - from ultralytics import YOLO - - # Laden Sie ein vortrainiertes YOLOv5n-Modell für COCO-Daten - modell = YOLO('yolov5n.pt') - - # Informationen zum Modell anzeigen (optional) - model.info() - - # Trainieren Sie das Modell anhand des COCO8-Beispieldatensatzes für 100 Epochen - ergebnisse = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Führen Sie die Inferenz mit dem YOLOv5n-Modell auf dem Bild 'bus.jpg' durch - ergebnisse = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI-Befehle sind verfügbar, um die Modelle direkt auszuführen: - - ```bash - # Laden Sie ein vortrainiertes YOLOv5n-Modell und trainieren Sie es anhand des COCO8-Beispieldatensatzes für 100 Epochen - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Laden Sie ein vortrainiertes YOLOv5n-Modell und führen Sie die Inferenz auf dem Bild 'bus.jpg' durch - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## Zitate und Danksagungen - -Wenn Sie YOLOv5 oder YOLOv5u in Ihrer Forschung verwenden, zitieren Sie bitte das Ultralytics YOLOv5-Repository wie folgt: - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -Bitte beachten Sie, dass die YOLOv5-Modelle unter den Lizenzen [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) und [Enterprise](https://ultralytics.com/license) bereitgestellt werden. diff --git a/docs/de/models/yolov6.md b/docs/de/models/yolov6.md deleted file mode 100644 index 0246170c1f5..00000000000 --- a/docs/de/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: Erforschen Sie Meituan YOLOv6, ein modernes Objekterkennungsmodell, das eine ausgewogene Kombination aus Geschwindigkeit und Genauigkeit bietet. Tauchen Sie ein in Funktionen, vorab trainierte Modelle und die Verwendung von Python. -keywords: Meituan YOLOv6, Objekterkennung, Ultralytics, YOLOv6 Dokumentation, Bi-direktionale Konkatenation, Anchor-Aided Training, vorab trainierte Modelle, Echtzeitanwendungen ---- - -# Meituan YOLOv6 - -## Überblick - -[Meituan](https://about.meituan.com/) YOLOv6 ist ein moderner Objekterkenner, der eine bemerkenswerte Balance zwischen Geschwindigkeit und Genauigkeit bietet und somit eine beliebte Wahl für Echtzeitanwendungen darstellt. Dieses Modell bietet mehrere bemerkenswerte Verbesserungen in seiner Architektur und seinem Trainingsschema, einschließlich der Implementierung eines Bi-direktionalen Konkatenationsmoduls (BiC), einer anchor-aided training (AAT)-Strategie und einem verbesserten Backpropagation- und Neck-Design für Spitzenleistungen auf dem COCO-Datensatz. - -![Meituan YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![Modellbeispielbild](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**Übersicht über YOLOv6.** Diagramm der Modellarchitektur, das die neu gestalteten Netzwerkkomponenten und Trainingstrategien zeigt, die zu signifikanten Leistungsverbesserungen geführt haben. (a) Der Nacken von YOLOv6 (N und S sind dargestellt). Beachten Sie, dass bei M/L RepBlocks durch CSPStackRep ersetzt wird. (b) Die Struktur eines BiC-Moduls. (c) Ein SimCSPSPPF-Block. ([Quelle](https://arxiv.org/pdf/2301.05586.pdf)). - -### Hauptmerkmale - -- **Bi-direktionales Konkatenations (BiC) Modul:** YOLOv6 führt ein BiC-Modul im Nacken des Erkenners ein, das die Lokalisierungssignale verbessert und eine Leistungssteigerung bei vernachlässigbarem Geschwindigkeitsabfall liefert. -- **Anchor-aided Training (AAT) Strategie:** Dieses Modell schlägt AAT vor, um die Vorteile sowohl von ankerbasierten als auch von ankerfreien Paradigmen zu nutzen, ohne die Inferenzeffizienz zu beeinträchtigen. -- **Verbessertes Backpropagation- und Neck-Design:** Durch Vertiefung von YOLOv6 um eine weitere Stufe im Backpropagation und Nacken erreicht dieses Modell Spitzenleistungen auf dem COCO-Datensatz bei hochauflösenden Eingaben. -- **Self-Distillation Strategie:** Eine neue Self-Distillation-Strategie wird implementiert, um die Leistung von kleineren Modellen von YOLOv6 zu steigern, indem der Hilfsregressionszweig während des Trainings verstärkt und bei der Inferenz entfernt wird, um einen deutlichen Geschwindigkeitsabfall zu vermeiden. - -## Leistungsmetriken - -YOLOv6 bietet verschiedene vorab trainierte Modelle mit unterschiedlichen Maßstäben: - -- YOLOv6-N: 37,5% AP auf COCO val2017 bei 1187 FPS mit NVIDIA Tesla T4 GPU. -- YOLOv6-S: 45,0% AP bei 484 FPS. -- YOLOv6-M: 50,0% AP bei 226 FPS. -- YOLOv6-L: 52,8% AP bei 116 FPS. -- YOLOv6-L6: Spitzenleistung in Echtzeit. - -YOLOv6 bietet auch quantisierte Modelle für verschiedene Genauigkeiten sowie Modelle, die für mobile Plattformen optimiert sind. - -## Beispiele zur Verwendung - -In diesem Beispiel werden einfache Schulungs- und Inferenzbeispiele für YOLOv6 bereitgestellt. Weitere Dokumentation zu diesen und anderen [Modi](../modes/index.md) finden Sie auf den Seiten [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) und [Export](../modes/export.md). - -!!! Example "Beispiel" - - === "Python" - - In Python kann PyTorch-vorab trainierte `*.pt`-Modelle sowie Konfigurations-`*.yaml`-Dateien an die `YOLO()`-Klasse übergeben werden, um eine Modellinstanz zu erstellen: - - ```python - from ultralytics import YOLO - - # Erstellen Sie ein YOLOv6n-Modell von Grund auf - model = YOLO('yolov6n.yaml') - - # Zeigen Sie Informationen zum Modell an (optional) - model.info() - - # Trainieren Sie das Modell am Beispiel des COCO8-Datensatzes für 100 Epochen - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Führen Sie Inferenz mit dem YOLOv6n-Modell auf dem Bild 'bus.jpg' durch - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI-Befehle stehen zur Verfügung, um die Modelle direkt auszuführen: - - ```bash - # Erstellen Sie ein YOLOv6n-Modell von Grund auf und trainieren Sie es am Beispiel des COCO8-Datensatzes für 100 Epochen - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # Erstellen Sie ein YOLOv6n-Modell von Grund auf und führen Sie Inferenz auf dem Bild 'bus.jpg' durch - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## Unterstützte Aufgaben und Modi - -Die YOLOv6-Serie bietet eine Reihe von Modellen, die jeweils für die Hochleistungs-[Objekterkennung](../tasks/detect.md) optimiert sind. Diese Modelle erfüllen unterschiedliche Rechenanforderungen und Genauigkeitsanforderungen und sind daher vielseitig für eine Vielzahl von Anwendungen einsetzbar. - -| Modelltyp | Vorab trainierte Gewichte | Unterstützte Aufgaben | Inferenz | Validierung | Training | Exportieren | -|-----------|---------------------------|---------------------------------------|----------|-------------|----------|-------------| -| YOLOv6-N | `yolov6-n.pt` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Diese Tabelle bietet einen detaillierten Überblick über die YOLOv6-Modellvarianten und hebt ihre Fähigkeiten bei der Objekterkennung sowie ihre Kompatibilität mit verschiedenen Betriebsmodi wie [Inferenz](../modes/predict.md), [Validierung](../modes/val.md), [Training](../modes/train.md) und [Exportieren](../modes/export.md) hervor. Diese umfassende Unterstützung ermöglicht es den Benutzern, die Fähigkeiten von YOLOv6-Modellen in einer Vielzahl von Objekterkennungsszenarien vollständig zu nutzen. - -## Zitate und Anerkennungen - -Wir möchten den Autoren für ihre bedeutenden Beiträge auf dem Gebiet der Echtzeit-Objekterkennung danken: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Das ursprüngliche YOLOv6-Papier finden Sie auf [arXiv](https://arxiv.org/abs/2301.05586). Die Autoren haben ihre Arbeit öffentlich zugänglich gemacht, und der Code kann auf [GitHub](https://github.com/meituan/YOLOv6) abgerufen werden. Wir schätzen ihre Bemühungen zur Weiterentwicklung des Fachgebiets und zur Zugänglichmachung ihrer Arbeit für die breitere Gemeinschaft. diff --git a/docs/de/models/yolov7.md b/docs/de/models/yolov7.md deleted file mode 100644 index 4edb9698b37..00000000000 --- a/docs/de/models/yolov7.md +++ /dev/null @@ -1,66 +0,0 @@ ---- -comments: true -description: Erforsche den YOLOv7, einen echtzeitfähigen Objektdetektor. Verstehe seine überlegene Geschwindigkeit, beeindruckende Genauigkeit und seinen einzigartigen Fokus auf die optimierte Ausbildung mit "trainable bag-of-freebies". -keywords: YOLOv7, echtzeitfähiger Objektdetektor, State-of-the-Art, Ultralytics, MS COCO Datensatz, Modellumparameterisierung, dynamische Labelzuweisung, erweiterte Skalierung, umfassende Skalierung ---- - -# YOLOv7: Trainable Bag-of-Freebies - -YOLOv7 ist ein echtzeitfähiger Objektdetektor der Spitzenklasse, der alle bekannten Objektdetektoren in Bezug auf Geschwindigkeit und Genauigkeit im Bereich von 5 FPS bis 160 FPS übertrifft. Mit einer Genauigkeit von 56,8% AP ist er der präziseste Echtzeit-Objektdetektor unter allen bekannten Modellen mit einer FPS von 30 oder höher auf der GPU V100. Darüber hinaus übertrifft YOLOv7 andere Objektdetektoren wie YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5 und viele andere in Bezug auf Geschwindigkeit und Genauigkeit. Das Modell wird ausschließlich auf dem MS COCO-Datensatz trainiert, ohne andere Datensätze oder vortrainierte Gewichte zu verwenden. Sourcecode für YOLOv7 ist auf GitHub verfügbar. - -![Vergleich von YOLOv7 mit SOTA-Objektdetektoren](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**Vergleich von Spitzen-Objektdetektoren. -** Aus den Ergebnissen in Tabelle 2 wissen wir, dass die vorgeschlagene Methode das beste Verhältnis von Geschwindigkeit und Genauigkeit umfassend aufweist. Vergleichen wir YOLOv7-tiny-SiLU mit YOLOv5-N (r6.1), so ist unsere Methode 127 FPS schneller und um 10,7% genauer beim AP. Darüber hinaus erreicht YOLOv7 bei einer Bildrate von 161 FPS einen AP von 51,4%, während PPYOLOE-L mit demselben AP nur eine Bildrate von 78 FPS aufweist. In Bezug auf die Parameterverwendung ist YOLOv7 um 41% geringer als PPYOLOE-L. Vergleicht man YOLOv7-X mit 114 FPS Inferenzgeschwindigkeit mit YOLOv5-L (r6.1) mit 99 FPS Inferenzgeschwindigkeit, kann YOLOv7-X den AP um 3,9% verbessern. Wenn YOLOv7-X mit YOLOv5-X (r6.1) in ähnlichem Maßstab verglichen wird, ist die Inferenzgeschwindigkeit von YOLOv7-X 31 FPS schneller. Darüber hinaus reduziert YOLOv7-X in Bezug auf die Anzahl der Parameter und Berechnungen 22% der Parameter und 8% der Berechnungen im Vergleich zu YOLOv5-X (r6.1), verbessert jedoch den AP um 2,2% ([Source](https://arxiv.org/pdf/2207.02696.pdf)). - -## Übersicht - -Echtzeit-Objekterkennung ist eine wichtige Komponente vieler Computersysteme für Bildverarbeitung, einschließlich Multi-Object-Tracking, autonomes Fahren, Robotik und medizinische Bildanalyse. In den letzten Jahren konzentrierte sich die Entwicklung der Echtzeit-Objekterkennung auf die Gestaltung effizienter Architekturen und die Verbesserung der Inferenzgeschwindigkeit verschiedener CPUs, GPUs und Neural Processing Units (NPUs). YOLOv7 unterstützt sowohl mobile GPUs als auch GPU-Geräte, von der Edge bis zur Cloud. - -Im Gegensatz zu herkömmlichen, echtzeitfähigen Objektdetektoren, die sich auf die Architekturoptimierung konzentrieren, führt YOLOv7 eine Fokussierung auf die Optimierung des Schulungsprozesses ein. Dazu gehören Module und Optimierungsmethoden, die darauf abzielen, die Genauigkeit der Objekterkennung zu verbessern, ohne die Inferenzkosten zu erhöhen - ein Konzept, das als "trainable bag-of-freebies" bekannt ist. - -## Hauptmerkmale - -YOLOv7 führt mehrere Schlüsselfunktionen ein: - -1. **Modellumparameterisierung**: YOLOv7 schlägt ein geplantes umparameterisiertes Modell vor, das eine in verschiedenen Netzwerken anwendbare Strategie darstellt und auf dem Konzept des Gradientenpropagationspfades basiert. - -2. **Dynamische Labelzuweisung**: Das Training des Modells mit mehreren Ausgabeschichten stellt ein neues Problem dar: "Wie weist man dynamische Ziele für die Ausgaben der verschiedenen Zweige zu?" Zur Lösung dieses Problems führt YOLOv7 eine neue Methode zur Labelzuweisung ein, die als coarse-to-fine lead guided label assignment bekannt ist. - -3. **Erweiterte und umfassende Skalierung**: YOLOv7 schlägt Methoden zur "erweiterten" und "umfassenden Skalierung" des echtzeitfähigen Objektdetektors vor, die Parameter und Berechnungen effektiv nutzen können. - -4. **Effizienz**: Die von YOLOv7 vorgeschlagene Methode kann etwa 40 % der Parameter und 50 % der Berechnungen des state-of-the-art echtzeitfähigen Objektdetektors wirksam reduzieren und weist eine schnellere Inferenzgeschwindigkeit und eine höhere Detektionsgenauigkeit auf. - -## Beispiele zur Nutzung - -Zum Zeitpunkt der Erstellung dieses Textes unterstützt Ultralytics derzeit keine YOLOv7-Modelle. Daher müssen sich alle Benutzer, die YOLOv7 verwenden möchten, direkt an das YOLOv7 GitHub-Repository für Installations- und Nutzungshinweise wenden. - -Hier ist ein kurzer Überblick über die typischen Schritte, die Sie unternehmen könnten, um YOLOv7 zu verwenden: - -1. Besuchen Sie das YOLOv7 GitHub-Repository: [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7). - -2. Befolgen Sie die in der README-Datei bereitgestellten Anweisungen zur Installation. Dies beinhaltet in der Regel das Klonen des Repositories, die Installation der erforderlichen Abhängigkeiten und das Einrichten eventuell notwendiger Umgebungsvariablen. - -3. Sobald die Installation abgeschlossen ist, können Sie das Modell entsprechend den im Repository bereitgestellten Anleitungen trainieren und verwenden. Dies umfasst in der Regel die Vorbereitung des Datensatzes, das Konfigurieren der Modellparameter, das Training des Modells und anschließend die Verwendung des trainierten Modells zur Durchführung der Objekterkennung. - -Bitte beachten Sie, dass die spezifischen Schritte je nach Ihrem spezifischen Anwendungsfall und dem aktuellen Stand des YOLOv7-Repositories variieren können. Es wird daher dringend empfohlen, sich direkt an die im YOLOv7 GitHub-Repository bereitgestellten Anweisungen zu halten. - -Wir bedauern etwaige Unannehmlichkeiten und werden uns bemühen, dieses Dokument mit Anwendungsbeispielen für Ultralytics zu aktualisieren, sobald die Unterstützung für YOLOv7 implementiert ist. - -## Zitationen und Danksagungen - -Wir möchten den Autoren von YOLOv7 für ihre bedeutenden Beiträge im Bereich der echtzeitfähigen Objekterkennung danken: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -Die ursprüngliche YOLOv7-Studie kann auf [arXiv](https://arxiv.org/pdf/2207.02696.pdf) gefunden werden. Die Autoren haben ihre Arbeit öffentlich zugänglich gemacht, und der Code kann auf [GitHub](https://github.com/WongKinYiu/yolov7) abgerufen werden. Wir schätzen ihre Bemühungen, das Feld voranzubringen und ihre Arbeit der breiteren Gemeinschaft zugänglich zu machen. diff --git a/docs/de/models/yolov8.md b/docs/de/models/yolov8.md deleted file mode 100644 index 5229e8b3dad..00000000000 --- a/docs/de/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: Erfahren Sie mehr über die aufregenden Funktionen von YOLOv8, der neuesten Version unseres Echtzeit-Objekterkenners! Erfahren Sie, wie fortschrittliche Architekturen, vortrainierte Modelle und die optimale Balance zwischen Genauigkeit und Geschwindigkeit YOLOv8 zur perfekten Wahl für Ihre Objekterkennungsaufgaben machen. -keywords: YOLOv8, Ultralytics, Echtzeit-Objekterkennung, vortrainierte Modelle, Dokumentation, Objekterkennung, YOLO-Serie, fortschrittliche Architekturen, Genauigkeit, Geschwindigkeit ---- - -# YOLOv8 - -## Übersicht - -YOLOv8 ist die neueste Version der YOLO-Serie von Echtzeit-Objekterkennern und bietet modernste Leistung in Bezug auf Genauigkeit und Geschwindigkeit. Basierend auf den Fortschritten früherer YOLO-Versionen bringt YOLOv8 neue Funktionen und Optimierungen mit sich, die ihn zu einer idealen Wahl für verschiedene Objekterkennungsaufgaben in einer Vielzahl von Anwendungen machen. - -![Ultralytics YOLOv8](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## Schlüsselfunktionen - -- **Fortschrittliche Backbone- und Neck-Architekturen:** YOLOv8 verwendet modernste Backbone- und Neck-Architekturen, die zu einer verbesserten Merkmalsextraktion und Objekterkennungsleistung führen. -- **Ankerfreier Split Ultralytics Head:** YOLOv8 verwendet einen ankerfreien Split Ultralytics Head, der zu einer besseren Genauigkeit und einem effizienteren Erkennungsprozess im Vergleich zu ankerbasierten Ansätzen führt. -- **Optimale Genauigkeits-Geschwindigkeits-Balance:** Mit dem Fokus auf die Aufrechterhaltung einer optimalen Balance zwischen Genauigkeit und Geschwindigkeit eignet sich YOLOv8 für Echtzeit-Objekterkennungsaufgaben in verschiedenen Anwendungsbereichen. -- **Vielfalt an vortrainierten Modellen:** YOLOv8 bietet eine Vielzahl von vortrainierten Modellen, um verschiedenen Aufgaben und Leistungsanforderungen gerecht zu werden. Dies erleichtert die Suche nach dem richtigen Modell für Ihren spezifischen Anwendungsfall. - -## Unterstützte Aufgaben und Modi - -Die YOLOv8-Serie bietet eine Vielzahl von Modellen, von denen jedes auf bestimmte Aufgaben in der Computer Vision spezialisiert ist. Diese Modelle sind so konzipiert, dass sie verschiedenen Anforderungen gerecht werden, von der Objekterkennung bis hin zu komplexeren Aufgaben wie Instanzsegmentierung, Pose/Keypoint-Erkennung und Klassifikation. - -Jede Variante der YOLOv8-Serie ist auf ihre jeweilige Aufgabe optimiert und gewährleistet damit hohe Leistung und Genauigkeit. Darüber hinaus sind diese Modelle kompatibel mit verschiedenen Betriebsmodi, einschließlich [Inference](../modes/predict.md), [Validation](../modes/val.md), [Training](../modes/train.md) und [Export](../modes/export.md). Dadurch wird ihre Verwendung in verschiedenen Phasen der Bereitstellung und Entwicklung erleichtert. - -| Modell | Dateinamen | Aufgabe | Inference | Validation | Training | Export | -|-------------|----------------------------------------------------------------------------------------------------------------|---------------------------------------------|-----------|------------|----------|--------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [Objekterkennung](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [Instanzsegmentierung](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [Pose/Keypoints](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [Klassifikation](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -Diese Tabelle gibt einen Überblick über die verschiedenen Varianten des YOLOv8-Modells und deren Anwendungsbereiche sowie deren Kompatibilität mit verschiedenen Betriebsmodi wie Inference, Validation, Training und Export. Sie zeigt die Vielseitigkeit und Robustheit der YOLOv8-Serie, was sie für verschiedene Anwendungen in der Computer Vision geeignet macht. - -## Leistungskennzahlen - -!!! Performance - - === "Objekterkennung (COCO)" - - Siehe [Objekterkennungsdokumentation](https://docs.ultralytics.com/tasks/detect/) für Beispiele zur Verwendung dieser Modelle, die auf [COCO](https://docs.ultralytics.com/datasets/detect/coco/) trainiert wurden und 80 vortrainierte Klassen enthalten. - - | Modell | Größe
(Pixel) | mAPval
50-95 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) | - | ------------------------------------------------------------------------------------ | --------------------- | -------------------- | ---------------------------------------- | --------------------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37,3 | 80,4 | 0,99 | 3,2 | 8,7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44,9 | 128,4 | 1,20 | 11,2 | 28,6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50,2 | 234,7 | 1,83 | 25,9 | 78,9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52,9 | 375,2 | 2,39 | 43,7 | 165,2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53,9 | 479,1 | 3,53 | 68,2 | 257,8 | - - === "Objekterkennung (Open Images V7)" - - Siehe [Objekterkennungsdokumentation](https://docs.ultralytics.com/tasks/detect/) für Beispiele zur Verwendung dieser Modelle, die auf [Open Image V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/) trainiert wurden und 600 vortrainierte Klassen enthalten. - - | Modell | Größe
(Pixel) | mAPval
50-95 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) | - | ----------------------------------------------------------------------------------------- | --------------------- | -------------------- | ---------------------------------------- | --------------------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18,4 | 142,4 | 1,21 | 3,5 | 10,5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27,7 | 183,1 | 1,40 | 11,4 | 29,7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33,6 | 408,5 | 2,26 | 26,2 | 80,6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34,9 | 596,9 | 2,43 | 44,1 | 167,4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36,3 | 860,6 | 3,56 | 68,7 | 260,6 | - - === "Segmentierung (COCO)" - - Siehe [Segmentierungsdokumentation](https://docs.ultralytics.com/tasks/segment/) für Beispiele zur Verwendung dieser Modelle, die auf [COCO](https://docs.ultralytics.com/datasets/segment/coco/) trainiert wurden und 80 vortrainierte Klassen enthalten. - - | Modell | Größe
(Pixel) | mAPbox
50-95 | mAPmask
50-95 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) | - | -------------------------------------------------------------------------------------------- | --------------------- | --------------------- | --------------------- | ---------------------------------------- | --------------------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36,7 | 30,5 | 96,1 | 1,21 | 3,4 | 12,6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44,6 | 36,8 | 155,7 | 1,47 | 11,8 | 42,6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49,9 | 40,8 | 317,0 | 2,18 | 27,3 | 110,2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52,3 | 42,6 | 572,4 | 2,79 | 46,0 | 220,5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53,4 | 43,4 | 712,1 | 4,02 | 71,8 | 344,1 | - - === "Klassifikation (ImageNet)" - - Siehe [Klassifikationsdokumentation](https://docs.ultralytics.com/tasks/classify/) für Beispiele zur Verwendung dieser Modelle, die auf [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/) trainiert wurden und 1000 vortrainierte Klassen enthalten. - - | Modell | Größe
(Pixel) | acc
top1 | acc
top5 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) bei 640 | - | -------------------------------------------------------------------------------------------- | --------------------- | ---------------- | ---------------- | ---------------------------------------- | --------------------------------------------- | ------------------ | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66,6 | 87,0 | 12,9 | 0,31 | 2,7 | 4,3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72,3 | 91,1 | 23,4 | 0,35 | 6,4 | 13,5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76,4 | 93,2 | 85,4 | 0,62 | 17,0 | 42,7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78,0 | 94,1 | 163,0 | 0,87 | 37,5 | 99,7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78,4 | 94,3 | 232,0 | 1,01 | 57,4 | 154,8 | - - === "Pose (COCO)" - - Siehe [Pose Estimation Docs](https://docs.ultralytics.com/tasks/segment/) für Beispiele zur Verwendung dieser Modelle, die auf [COCO](https://docs.ultralytics.com/datasets/pose/coco/) trainiert wurden und 1 vortrainierte Klasse, 'person', enthalten. - - | Modell | Größe
(Pixel) | mAPpose
50-95 | mAPpose
50 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) | - | ---------------------------------------------------------------------------------------------------- | --------------------- | --------------------- | ------------------ | ---------------------------------------- | --------------------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50,4 | 80,1 | 131,8 | 1,18 | 3,3 | 9,2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60,0 | 86,2 | 233,2 | 1,42 | 11,6 | 30,2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65,0 | 88,8 | 456,3 | 2,00 | 26,4 | 81,0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67,6 | 90,0 | 784,5 | 2,59 | 44,4 | 168,6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69,2 | 90,2 | 1607,1 | 3,73 | 69,4 | 263,2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71,6 | 91,2 | 4088,7 | 10,04 | 99,1 | 1066,4 | - -## Beispiele zur Verwendung - -Dieses Beispiel liefert einfache Trainings- und Inferenzbeispiele für YOLOv8. Für die vollständige Dokumentation zu diesen und anderen [Modi](../modes/index.md) siehe die Seiten [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) und [Export](../modes/export.md). - -Beachten Sie, dass das folgende Beispiel für YOLOv8 [Detect](../tasks/detect.md) Modelle für die Objekterkennung verwendet. Für zusätzliche unterstützte Aufgaben siehe die Dokumentation zur [Segmentation](../tasks/segment.md), [Classification](../tasks/classify.md) und [Pose](../tasks/pose.md). - -!!! Example "Beispiel" - - === "Python" - - Vortrainierte PyTorch-`*.pt`-Modelle sowie Konfigurations-`*.yaml`-Dateien können der Klasse `YOLO()` in Python übergeben werden, um eine Modellinstanz zu erstellen: - - ```python - from ultralytics import YOLO - - # Laden Sie ein vortrainiertes YOLOv8n-Modell für COCO - model = YOLO('yolov8n.pt') - - # Zeigen Sie Informationen zum Modell an (optional) - model.info() - - # Trainieren Sie das Modell mit dem COCO8-Beispieldatensatz für 100 Epochen - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Führen Sie eine Inferenz mit dem YOLOv8n-Modell auf dem Bild 'bus.jpg' aus - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI-Befehle stehen zur direkten Ausführung der Modelle zur Verfügung: - - ```bash - # Laden Sie ein vortrainiertes YOLOv8n-Modell für COCO und trainieren Sie es mit dem COCO8-Beispieldatensatz für 100 Epochen - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Laden Sie ein vortrainiertes YOLOv8n-Modell für COCO und führen Sie eine Inferenz auf dem Bild 'bus.jpg' aus - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## Zitate und Danksagungen - -Wenn Sie das YOLOv8-Modell oder eine andere Software aus diesem Repository in Ihrer Arbeit verwenden, zitieren Sie es bitte in folgendem Format: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -Bitte beachten Sie, dass dieDOI aussteht und der Zitation hinzugefügt wird, sobald sie verfügbar ist. YOLOv8-Modelle werden unter den Lizenzen [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) und [Enterprise](https://ultralytics.com/license) bereitgestellt. diff --git a/docs/de/modes/benchmark.md b/docs/de/modes/benchmark.md deleted file mode 100644 index 93908a14564..00000000000 --- a/docs/de/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: Lernen Sie, wie Sie die Geschwindigkeit und Genauigkeit von YOLOv8 über verschiedene Exportformate hinweg profilieren können; erhalten Sie Einblicke in mAP50-95, Genauigkeit_top5 Kennzahlen und mehr. -keywords: Ultralytics, YOLOv8, Benchmarking, Geschwindigkeitsprofilierung, Genauigkeitsprofilierung, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, YOLO-Exportformate ---- - -# Modell-Benchmarking mit Ultralytics YOLO - -Ultralytics YOLO-Ökosystem und Integrationen - -## Einführung - -Nachdem Ihr Modell trainiert und validiert wurde, ist der nächste logische Schritt, seine Leistung in verschiedenen realen Szenarien zu bewerten. Der Benchmark-Modus in Ultralytics YOLOv8 dient diesem Zweck, indem er einen robusten Rahmen für die Beurteilung von Geschwindigkeit und Genauigkeit Ihres Modells über eine Reihe von Exportformaten hinweg bietet. - -## Warum ist Benchmarking entscheidend? - -- **Informierte Entscheidungen:** Erhalten Sie Einblicke in die Kompromisse zwischen Geschwindigkeit und Genauigkeit. -- **Ressourcenzuweisung:** Verstehen Sie, wie sich verschiedene Exportformate auf unterschiedlicher Hardware verhalten. -- **Optimierung:** Erfahren Sie, welches Exportformat die beste Leistung für Ihren spezifischen Anwendungsfall bietet. -- **Kosteneffizienz:** Nutzen Sie Hardware-Ressourcen basierend auf den Benchmark-Ergebnissen effizienter. - -### Schlüsselmetriken im Benchmark-Modus - -- **mAP50-95:** Für Objekterkennung, Segmentierung und Posenschätzung. -- **accuracy_top5:** Für die Bildklassifizierung. -- **Inferenzzeit:** Zeit, die für jedes Bild in Millisekunden benötigt wird. - -### Unterstützte Exportformate - -- **ONNX:** Für optimale CPU-Leistung -- **TensorRT:** Für maximale GPU-Effizienz -- **OpenVINO:** Für die Optimierung von Intel-Hardware -- **CoreML, TensorFlow SavedModel, und mehr:** Für vielfältige Deployment-Anforderungen. - -!!! Tip "Tipp" - - * Exportieren Sie in ONNX oder OpenVINO für bis zu 3x CPU-Beschleunigung. - * Exportieren Sie in TensorRT für bis zu 5x GPU-Beschleunigung. - -## Anwendungsbeispiele - -Führen Sie YOLOv8n-Benchmarks auf allen unterstützten Exportformaten einschließlich ONNX, TensorRT usw. durch. Siehe den Abschnitt Argumente unten für eine vollständige Liste der Exportargumente. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # Benchmark auf GPU - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## Argumente - -Argumente wie `model`, `data`, `imgsz`, `half`, `device` und `verbose` bieten Benutzern die Flexibilität, die Benchmarks auf ihre spezifischen Bedürfnisse abzustimmen und die Leistung verschiedener Exportformate mühelos zu vergleichen. - -| Schlüssel | Wert | Beschreibung | -|-----------|---------|--------------------------------------------------------------------------------------| -| `model` | `None` | Pfad zur Modelldatei, z. B. yolov8n.pt, yolov8n.yaml | -| `data` | `None` | Pfad zur YAML, die das Benchmarking-Dataset referenziert (unter `val`-Kennzeichnung) | -| `imgsz` | `640` | Bildgröße als Skalar oder Liste (h, w), z. B. (640, 480) | -| `half` | `False` | FP16-Quantisierung | -| `int8` | `False` | INT8-Quantisierung | -| `device` | `None` | Gerät zum Ausführen, z. B. CUDA device=0 oder device=0,1,2,3 oder device=cpu | -| `verbose` | `False` | bei Fehlern nicht fortsetzen (bool), oder Wertebereichsschwelle (float) | - -## Exportformate - -Benchmarks werden automatisch auf allen möglichen Exportformaten unten ausgeführt. - -| Format | `format`-Argument | Modell | Metadaten | Argumente | -|--------------------------------------------------------------------|-------------------|---------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Vollständige Details zum `export` finden Sie auf der [Export](https://docs.ultralytics.com/modes/export/)-Seite. diff --git a/docs/de/modes/export.md b/docs/de/modes/export.md deleted file mode 100644 index c62a1d6863c..00000000000 --- a/docs/de/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: Schritt-für-Schritt-Anleitung zum Exportieren Ihrer YOLOv8-Modelle in verschiedene Formate wie ONNX, TensorRT, CoreML und mehr für den Einsatz. -keywords: YOLO, YOLOv8, Ultralytics, Modell-Export, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, Modell exportieren ---- - -# Modell-Export mit Ultralytics YOLO - -Ultralytics YOLO Ökosystem und Integrationen - -## Einführung - -Das ultimative Ziel des Trainierens eines Modells besteht darin, es für reale Anwendungen einzusetzen. Der Exportmodus in Ultralytics YOLOv8 bietet eine vielseitige Palette von Optionen für den Export Ihres trainierten Modells in verschiedene Formate, sodass es auf verschiedenen Plattformen und Geräten eingesetzt werden kann. Dieser umfassende Leitfaden soll Sie durch die Nuancen des Modell-Exports führen und zeigen, wie Sie maximale Kompatibilität und Leistung erzielen können. - -

-
- -
- Ansehen: Wie man ein benutzerdefiniertes trainiertes Ultralytics YOLOv8-Modell exportiert und Live-Inferenz auf der Webcam ausführt. -

- -## Warum den Exportmodus von YOLOv8 wählen? - -- **Vielseitigkeit:** Export in verschiedene Formate einschließlich ONNX, TensorRT, CoreML und mehr. -- **Leistung:** Bis zu 5-fache GPU-Beschleunigung mit TensorRT und 3-fache CPU-Beschleunigung mit ONNX oder OpenVINO. -- **Kompatibilität:** Machen Sie Ihr Modell universell einsetzbar in zahlreichen Hardware- und Softwareumgebungen. -- **Benutzerfreundlichkeit:** Einfache CLI- und Python-API für schnellen und unkomplizierten Modell-Export. - -### Schlüsselfunktionen des Exportmodus - -Hier sind einige der herausragenden Funktionen: - -- **Ein-Klick-Export:** Einfache Befehle für den Export in verschiedene Formate. -- **Batch-Export:** Export von Modellen, die Batch-Inferenz unterstützen. -- **Optimiertes Inferenzverhalten:** Exportierte Modelle sind für schnellere Inferenzzeiten optimiert. -- **Tutorial-Videos:** Ausführliche Anleitungen und Tutorials für ein reibungsloses Exporterlebnis. - -!!! Tip "Tipp" - - * Exportieren Sie nach ONNX oder OpenVINO für bis zu 3-fache CPU-Beschleunigung. - * Exportieren Sie nach TensorRT für bis zu 5-fache GPU-Beschleunigung. - -## Nutzungsbeispiele - -Exportieren Sie ein YOLOv8n-Modell in ein anderes Format wie ONNX oder TensorRT. Weitere Informationen zu den Exportargumenten finden Sie im Abschnitt „Argumente“ unten. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Laden eines Modells - model = YOLO('yolov8n.pt') # offizielles Modell laden - model = YOLO('path/to/best.pt') # benutzerdefiniertes trainiertes Modell laden - - # Exportieren des Modells - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # offizielles Modell exportieren - yolo export model=path/to/best.pt format=onnx # benutzerdefiniertes trainiertes Modell exportieren - ``` - -## Argumente - -Exporteinstellungen für YOLO-Modelle beziehen sich auf verschiedene Konfigurationen und Optionen, die verwendet werden, um das Modell zu speichern oder für den Einsatz in anderen Umgebungen oder Plattformen zu exportieren. Diese Einstellungen können die Leistung, Größe und Kompatibilität des Modells mit verschiedenen Systemen beeinflussen. Zu den gängigen Exporteinstellungen von YOLO gehören das Format der exportierten Modelldatei (z. B. ONNX, TensorFlow SavedModel), das Gerät, auf dem das Modell ausgeführt wird (z. B. CPU, GPU) und das Vorhandensein zusätzlicher Funktionen wie Masken oder mehrere Labels pro Box. Andere Faktoren, die den Exportprozess beeinflussen können, sind die spezifische Aufgabe, für die das Modell verwendet wird, und die Anforderungen oder Einschränkungen der Zielumgebung oder -plattform. Es ist wichtig, diese Einstellungen sorgfältig zu berücksichtigen und zu konfigurieren, um sicherzustellen, dass das exportierte Modell für den beabsichtigten Einsatzzweck optimiert ist und in der Zielumgebung effektiv eingesetzt werden kann. - -| Schlüssel | Wert | Beschreibung | -|-------------|-----------------|----------------------------------------------------------| -| `format` | `'torchscript'` | Format für den Export | -| `imgsz` | `640` | Bildgröße als Skalar oder (h, w)-Liste, z.B. (640, 480) | -| `keras` | `False` | Verwendung von Keras für TensorFlow SavedModel-Export | -| `optimize` | `False` | TorchScript: Optimierung für mobile Geräte | -| `half` | `False` | FP16-Quantisierung | -| `int8` | `False` | INT8-Quantisierung | -| `dynamic` | `False` | ONNX/TensorRT: dynamische Achsen | -| `simplify` | `False` | ONNX/TensorRT: Vereinfachung des Modells | -| `opset` | `None` | ONNX: Opset-Version (optional, Standardwert ist neueste) | -| `workspace` | `4` | TensorRT: Arbeitsbereichgröße (GB) | -| `nms` | `False` | CoreML: Hinzufügen von NMS | - -## Exportformate - -Verfügbare YOLOv8-Exportformate finden Sie in der Tabelle unten. Sie können in jedes Format exportieren, indem Sie das `format`-Argument verwenden, z. B. `format='onnx'` oder `format='engine'`. - -| Format | `format`-Argument | Modell | Metadaten | Argumente | -|--------------------------------------------------------------------|-------------------|---------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/de/modes/index.md b/docs/de/modes/index.md deleted file mode 100644 index c73b488b626..00000000000 --- a/docs/de/modes/index.md +++ /dev/null @@ -1,74 +0,0 @@ ---- -comments: true -description: Vom Training bis zum Tracking - Nutzen Sie YOLOv8 von Ultralytics optimal. Erhalten Sie Einblicke und Beispiele für jeden unterstützten Modus, einschließlich Validierung, Export und Benchmarking. -keywords: Ultralytics, YOLOv8, Maschinelles Lernen, Objekterkennung, Training, Validierung, Vorhersage, Export, Tracking, Benchmarking ---- - -# Ultralytics YOLOv8 Modi - -Ultralytics YOLO-Ökosystem und Integrationen - -## Einführung - -Ultralytics YOLOv8 ist nicht nur ein weiteres Objekterkennungsmodell; es ist ein vielseitiges Framework, das den gesamten Lebenszyklus von Machine-Learning-Modellen abdeckt - von der Dateneingabe und dem Modelltraining über die Validierung und Bereitstellung bis hin zum Tracking in der realen Welt. Jeder Modus dient einem bestimmten Zweck und ist darauf ausgelegt, Ihnen die Flexibilität und Effizienz zu bieten, die für verschiedene Aufgaben und Anwendungsfälle erforderlich ist. - -

-
- -
- Anschauen: Ultralytics Modi Tutorial: Trainieren, Validieren, Vorhersagen, Exportieren & Benchmarking. -

- -### Modi im Überblick - -Das Verständnis der verschiedenen **Modi**, die Ultralytics YOLOv8 unterstützt, ist entscheidend, um das Beste aus Ihren Modellen herauszuholen: - -- **Train**-Modus: Verfeinern Sie Ihr Modell mit angepassten oder vorgeladenen Datensätzen. -- **Val**-Modus: Eine Nachtrainingsprüfung zur Validierung der Modellleistung. -- **Predict**-Modus: Entfesseln Sie die Vorhersagekraft Ihres Modells mit realen Daten. -- **Export**-Modus: Machen Sie Ihr Modell in verschiedenen Formaten einsatzbereit. -- **Track**-Modus: Erweitern Sie Ihr Objekterkennungsmodell um Echtzeit-Tracking-Anwendungen. -- **Benchmark**-Modus: Analysieren Sie die Geschwindigkeit und Genauigkeit Ihres Modells in verschiedenen Einsatzumgebungen. - -Dieser umfassende Leitfaden soll Ihnen einen Überblick und praktische Einblicke in jeden Modus geben, um Ihnen zu helfen, das volle Potenzial von YOLOv8 zu nutzen. - -## [Trainieren](train.md) - -Der Trainingsmodus wird verwendet, um ein YOLOv8-Modell mit einem angepassten Datensatz zu trainieren. In diesem Modus wird das Modell mit dem angegebenen Datensatz und den Hyperparametern trainiert. Der Trainingsprozess beinhaltet die Optimierung der Modellparameter, damit es die Klassen und Standorte von Objekten in einem Bild genau vorhersagen kann. - -[Trainingsbeispiele](train.md){ .md-button } - -## [Validieren](val.md) - -Der Validierungsmodus wird genutzt, um ein YOLOv8-Modell nach dem Training zu bewerten. In diesem Modus wird das Modell auf einem Validierungsset getestet, um seine Genauigkeit und Generalisierungsleistung zu messen. Dieser Modus kann verwendet werden, um die Hyperparameter des Modells für eine bessere Leistung zu optimieren. - -[Validierungsbeispiele](val.md){ .md-button } - -## [Vorhersagen](predict.md) - -Der Vorhersagemodus wird verwendet, um mit einem trainierten YOLOv8-Modell Vorhersagen für neue Bilder oder Videos zu treffen. In diesem Modus wird das Modell aus einer Checkpoint-Datei geladen, und der Benutzer kann Bilder oder Videos zur Inferenz bereitstellen. Das Modell sagt die Klassen und Standorte von Objekten in den Eingabebildern oder -videos voraus. - -[Vorhersagebeispiele](predict.md){ .md-button } - -## [Exportieren](export.md) - -Der Exportmodus wird verwendet, um ein YOLOv8-Modell in ein Format zu exportieren, das für die Bereitstellung verwendet werden kann. In diesem Modus wird das Modell in ein Format konvertiert, das von anderen Softwareanwendungen oder Hardwaregeräten verwendet werden kann. Dieser Modus ist nützlich, wenn das Modell in Produktionsumgebungen eingesetzt wird. - -[Exportbeispiele](export.md){ .md-button } - -## [Verfolgen](track.md) - -Der Trackingmodus wird zur Echtzeitverfolgung von Objekten mit einem YOLOv8-Modell verwendet. In diesem Modus wird das Modell aus einer Checkpoint-Datei geladen, und der Benutzer kann einen Live-Videostream für das Echtzeitobjekttracking bereitstellen. Dieser Modus ist nützlich für Anwendungen wie Überwachungssysteme oder selbstfahrende Autos. - -[Trackingbeispiele](track.md){ .md-button } - -## [Benchmarking](benchmark.md) - -Der Benchmark-Modus wird verwendet, um die Geschwindigkeit und Genauigkeit verschiedener Exportformate für YOLOv8 zu profilieren. Die Benchmarks liefern Informationen über die Größe des exportierten Formats, seine `mAP50-95`-Metriken (für Objekterkennung, Segmentierung und Pose) -oder `accuracy_top5`-Metriken (für Klassifizierung) und die Inferenzzeit in Millisekunden pro Bild für verschiedene Exportformate wie ONNX, OpenVINO, TensorRT und andere. Diese Informationen können den Benutzern dabei helfen, das optimale Exportformat für ihren spezifischen Anwendungsfall basierend auf ihren Anforderungen an Geschwindigkeit und Genauigkeit auszuwählen. - -[Benchmarkbeispiele](benchmark.md){ .md-button } diff --git a/docs/de/modes/predict.md b/docs/de/modes/predict.md deleted file mode 100644 index febec46dbaa..00000000000 --- a/docs/de/modes/predict.md +++ /dev/null @@ -1,227 +0,0 @@ ---- -comments: true -description: Erkunden Sie, wie der YOLOv8-Prognosemodus für verschiedene Aufgaben verwendet werden kann. Erfahren Sie mehr über verschiedene Inferenzquellen wie Bilder, Videos und Datenformate. -keywords: Ultralytics, YOLOv8, Vorhersagemodus, Inferenzquellen, Vorhersageaufgaben, Streaming-Modus, Bildverarbeitung, Videoverarbeitung, maschinelles Lernen, KI ---- - -# Modellvorhersage mit Ultralytics YOLO - -Ultralytics YOLO Ökosystem und Integrationen - -## Einführung - -Im Bereich des maschinellen Lernens und der Computer Vision wird der Prozess des Verstehens visueller Daten als 'Inferenz' oder 'Vorhersage' bezeichnet. Ultralytics YOLOv8 bietet eine leistungsstarke Funktion, die als **Prognosemodus** bekannt ist und für eine hochleistungsfähige, echtzeitfähige Inferenz auf einer breiten Palette von Datenquellen zugeschnitten ist. - -

-
- -
- Anschauen: Wie man die Ausgaben vom Ultralytics YOLOv8 Modell für individuelle Projekte extrahiert. -

- -## Anwendungen in der realen Welt - -| Herstellung | Sport | Sicherheit | -|:---------------------------------------------------------------------------------------------------------------------------------------:|:-----------------------------------------------------------------------------------------------------------------------------------:|:---------------------------------------------------------------------------------------------------------------------------------------:| -| ![Ersatzteilerkennung für Fahrzeuge](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1) | ![Erkennung von Fußballspielern](https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442) | ![Erkennung von stürzenden Personen](https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43) | -| Erkennung von Fahrzeugersatzteilen | Erkennung von Fußballspielern | Erkennung von stürzenden Personen | - -## Warum Ultralytics YOLO für Inferenz nutzen? - -Hier sind Gründe, warum Sie den Prognosemodus von YOLOv8 für Ihre verschiedenen Inferenzanforderungen in Betracht ziehen sollten: - -- **Vielseitigkeit:** Fähig, Inferenzen auf Bilder, Videos und sogar Live-Streams zu machen. -- **Leistung:** Entwickelt für Echtzeit-Hochgeschwindigkeitsverarbeitung ohne Genauigkeitsverlust. -- **Einfache Bedienung:** Intuitive Python- und CLI-Schnittstellen für schnelle Einsatzbereitschaft und Tests. -- **Hohe Anpassbarkeit:** Verschiedene Einstellungen und Parameter, um das Verhalten der Modellinferenz entsprechend Ihren spezifischen Anforderungen zu optimieren. - -### Schlüsselfunktionen des Prognosemodus - -Der Prognosemodus von YOLOv8 ist robust und vielseitig konzipiert und verfügt über: - -- **Kompatibilität mit mehreren Datenquellen:** Ganz gleich, ob Ihre Daten in Form von Einzelbildern, einer Bildersammlung, Videodateien oder Echtzeit-Videostreams vorliegen, der Prognosemodus deckt alles ab. -- **Streaming-Modus:** Nutzen Sie die Streaming-Funktion, um einen speichereffizienten Generator von `Results`-Objekten zu erzeugen. Aktivieren Sie dies, indem Sie `stream=True` in der Aufrufmethode des Predictors einstellen. -- **Batchverarbeitung:** Die Möglichkeit, mehrere Bilder oder Videoframes in einem einzigen Batch zu verarbeiten, wodurch die Inferenzzeit weiter verkürzt wird. -- **Integrationsfreundlich:** Dank der flexiblen API leicht in bestehende Datenpipelines und andere Softwarekomponenten zu integrieren. - -Ultralytics YOLO-Modelle geben entweder eine Python-Liste von `Results`-Objekten zurück, oder einen speichereffizienten Python-Generator von `Results`-Objekten, wenn `stream=True` beim Inferenzvorgang an das Modell übergeben wird: - -!!! Example "Predict" - - === "Gibt eine Liste mit `stream=False` zurück" - ```python - from ultralytics import YOLO - - # Ein Modell laden - model = YOLO('yolov8n.pt') # vortrainiertes YOLOv8n Modell - - # Batch-Inferenz auf einer Liste von Bildern ausführen - results = model(['im1.jpg', 'im2.jpg']) # gibt eine Liste von Results-Objekten zurück - - # Ergebnisliste verarbeiten - for result in results: - boxes = result.boxes # Boxes-Objekt für Bbox-Ausgaben - masks = result.masks # Masks-Objekt für Segmentierungsmasken-Ausgaben - keypoints = result.keypoints # Keypoints-Objekt für Pose-Ausgaben - probs = result.probs # Probs-Objekt für Klassifizierungs-Ausgaben - ``` - - === "Gibt einen Generator mit `stream=True` zurück" - ```python - from ultralytics import YOLO - - # Ein Modell laden - model = YOLO('yolov8n.pt') # vortrainiertes YOLOv8n Modell - - # Batch-Inferenz auf einer Liste von Bildern ausführen - results = model(['im1.jpg', 'im2.jpg'], stream=True) # gibt einen Generator von Results-Objekten zurück - - # Generator von Ergebnissen verarbeiten - for result in results: - boxes = result.boxes # Boxes-Objekt für Bbox-Ausgaben - masks = result.masks # Masks-Objekt für Segmentierungsmasken-Ausgaben - keypoints = result.keypoints # Keypoints-Objekt für Pose-Ausgaben - probs = result.probs # Probs-Objekt für Klassifizierungs-Ausgaben - ``` - -## Inferenzquellen - -YOLOv8 kann verschiedene Arten von Eingabequellen für die Inferenz verarbeiten, wie in der folgenden Tabelle gezeigt. Die Quellen umfassen statische Bilder, Videostreams und verschiedene Datenformate. Die Tabelle gibt ebenfalls an, ob jede Quelle im Streaming-Modus mit dem Argument `stream=True` ✅ verwendet werden kann. Der Streaming-Modus ist vorteilhaft für die Verarbeitung von Videos oder Live-Streams, da er einen Generator von Ergebnissen statt das Laden aller Frames in den Speicher erzeugt. - -!!! Tip "Tipp" - - Verwenden Sie `stream=True` für die Verarbeitung langer Videos oder großer Datensätze, um den Speicher effizient zu verwalten. Bei `stream=False` werden die Ergebnisse für alle Frames oder Datenpunkte im Speicher gehalten, was bei großen Eingaben schnell zu Speicherüberläufen führen kann. Im Gegensatz dazu verwendet `stream=True` einen Generator, der nur die Ergebnisse des aktuellen Frames oder Datenpunkts im Speicher behält, was den Speicherverbrauch erheblich reduziert und Speicherüberlaufprobleme verhindert. - -| Quelle | Argument | Typ | Hinweise | -|--------------------|--------------------------------------------|-------------------|------------------------------------------------------------------------------------------------| -| Bild | `'image.jpg'` | `str` oder `Path` | Einzelbilddatei. | -| URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | URL zu einem Bild. | -| Bildschirmaufnahme | `'screen'` | `str` | Eine Bildschirmaufnahme erstellen. | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | HWC-Format mit RGB-Kanälen. | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | HWC-Format mit BGR-Kanälen `uint8 (0-255)`. | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | HWC-Format mit BGR-Kanälen `uint8 (0-255)`. | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | BCHW-Format mit RGB-Kanälen `float32 (0.0-1.0)`. | -| CSV | `'sources.csv'` | `str` oder `Path` | CSV-Datei mit Pfaden zu Bildern, Videos oder Verzeichnissen. | -| video ✅ | `'video.mp4'` | `str` oder `Path` | Videodatei in Formaten wie MP4, AVI, usw. | -| Verzeichnis ✅ | `'path/'` | `str` oder `Path` | Pfad zu einem Verzeichnis mit Bildern oder Videos. | -| glob ✅ | `'path/*.jpg'` | `str` | Glob-Muster, um mehrere Dateien zu finden. Verwenden Sie das `*` Zeichen als Platzhalter. | -| YouTube ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | URL zu einem YouTube-Video. | -| stream ✅ | `'rtsp://example.com/media.mp4'` | `str` | URL für Streaming-Protokolle wie RTSP, RTMP, TCP oder eine IP-Adresse. | -| Multi-Stream ✅ | `'list.streams'` | `str` oder `Path` | `*.streams` Textdatei mit einer Stream-URL pro Zeile, z.B. 8 Streams laufen bei Batch-Größe 8. | - -Untenstehend finden Sie Codebeispiele für die Verwendung jedes Quelltyps: - -!!! Example "Vorhersagequellen" - - === "Bild" - Führen Sie die Inferenz auf einer Bilddatei aus. - ```python - from ultralytics import YOLO - - # Ein vortrainiertes YOLOv8n Modell laden - model = YOLO('yolov8n.pt') - - # Pfad zur Bilddatei definieren - quell = 'Pfad/zum/Bild.jpg' - - # Inferenz auf der Quelle ausführen - ergebnisse = model(quell) # Liste von Results-Objekten - ``` - - === "Bildschirmaufnahme" - Führen Sie die Inferenz auf dem aktuellen Bildschirminhalt als Screenshot aus. - ```python - from ultralytics import YOLO - - # Ein vortrainiertes YOLOv8n Modell laden - model = YOLO('yolov8n.pt') - - # Aktuellen Screenshot als Quelle definieren - quell = 'Bildschirm' - - # Inferenz auf der Quelle ausführen - ergebnisse = model(quell) # Liste von Results-Objekten - ``` - - === "URL" - Führen Sie die Inferenz auf einem Bild oder Video aus, das über eine URL remote gehostet wird. - ```python - from ultralytics import YOLO - - # Ein vortrainiertes YOLOv8n Modell laden - model = YOLO('yolov8n.pt') - - # Remote-Bild- oder Video-URL definieren - quell = 'https://ultralytics.com/images/bus.jpg' - - # Inferenz auf der Quelle ausführen - ergebnisse = model(quell) # Liste von Results-Objekten - ``` - - === "PIL" - Führen Sie die Inferenz auf einem Bild aus, das mit der Python Imaging Library (PIL) geöffnet wurde. - ```python - from PIL import Image - from ultralytics import YOLO - - # Ein vortrainiertes YOLOv8n Modell laden - model = YOLO('yolov8n.pt') - - # Ein Bild mit PIL öffnen - quell = Image.open('Pfad/zum/Bild.jpg') - - # Inferenz auf der Quelle ausführen - ergebnisse = model(quell) # Liste von Results-Objekten - ``` - - === "OpenCV" - Führen Sie die Inferenz auf einem Bild aus, das mit OpenCV gelesen wurde. - ```python - import cv2 - from ultralytics import YOLO - - # Ein vortrainiertes YOLOv8n Modell laden - model = YOLO('yolov8n.pt') - - # Ein Bild mit OpenCV lesen - quell = cv2.imread('Pfad/zum/Bild.jpg') - - # Inferenz auf der Quelle ausführen - ergebnisse = model(quell) # Liste von Results-Objekten - ``` - - === "numpy" - Führen Sie die Inferenz auf einem Bild aus, das als numpy-Array dargestellt wird. - ```python - import numpy as np - from ultralytics import YOLO - - # Ein vortrainiertes YOLOv8n Modell laden - model = YOLO('yolov8n.pt') - - # Ein zufälliges numpy-Array der HWC-Form (640, 640, 3) mit Werten im Bereich [0, 255] und Typ uint8 erstellen - quell = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') - - # Inferenz auf der Quelle ausführen - ergebnisse = model(quell) # Liste von Results-Objekten - ``` - - === "torch" - Führen Sie die Inferenz auf einem Bild aus, das als PyTorch-Tensor dargestellt wird. - ```python - import torch - from ultralytics import YOLO - - # Ein vortrainiertes YOLOv8n Modell laden - model = YOLO('yolov8n.pt') - - # Ein zufälliger torch-Tensor der BCHW-Form (1, 3, 640, 640) mit Werten im Bereich [0, 1] und Typ float32 erstellen - quell = torch.rand(1, 3, 640, 640, dtype=torch.float32) - - # Inferenz auf der Quelle ausführen - ergebnisse = model(quell) # Liste von Results-Objekten - ``` diff --git a/docs/de/modes/track.md b/docs/de/modes/track.md deleted file mode 100644 index f29dae9c318..00000000000 --- a/docs/de/modes/track.md +++ /dev/null @@ -1,200 +0,0 @@ ---- -comments: true -description: Erfahren Sie, wie Sie Ultralytics YOLO für Objektverfolgung in Videostreams verwenden. Anleitungen zum Einsatz verschiedener Tracker und zur Anpassung von Tracker-Konfigurationen. -keywords: Ultralytics, YOLO, Objektverfolgung, Videostreams, BoT-SORT, ByteTrack, Python-Anleitung, CLI-Anleitung ---- - -# Multi-Objektverfolgung mit Ultralytics YOLO - -Beispiele für Multi-Objektverfolgung - -Objektverfolgung im Bereich der Videoanalytik ist eine essentielle Aufgabe, die nicht nur den Standort und die Klasse von Objekten innerhalb des Frames identifiziert, sondern auch eine eindeutige ID für jedes erkannte Objekt, während das Video fortschreitet, erhält. Die Anwendungsmöglichkeiten sind grenzenlos – von Überwachung und Sicherheit bis hin zur Echtzeitsportanalytik. - -## Warum Ultralytics YOLO für Objektverfolgung wählen? - -Die Ausgabe von Ultralytics Trackern ist konsistent mit der standardmäßigen Objekterkennung, bietet aber zusätzlich Objekt-IDs. Dies erleichtert das Verfolgen von Objekten in Videostreams und das Durchführen nachfolgender Analysen. Hier sind einige Gründe, warum Sie Ultralytics YOLO für Ihre Objektverfolgungsaufgaben in Betracht ziehen sollten: - -- **Effizienz:** Verarbeitung von Videostreams in Echtzeit ohne Einbußen bei der Genauigkeit. -- **Flexibilität:** Unterstützt mehrere Tracking-Algorithmen und -Konfigurationen. -- **Benutzerfreundlichkeit:** Einfache Python-API und CLI-Optionen für schnelle Integration und Bereitstellung. -- **Anpassbarkeit:** Einfache Verwendung mit individuell trainierten YOLO-Modellen, ermöglicht Integration in branchenspezifische Anwendungen. - -

-
- -
- Ansehen: Objekterkennung und -verfolgung mit Ultralytics YOLOv8. -

- -## Anwendungen in der realen Welt - -| Transportwesen | Einzelhandel | Aquakultur | -|:------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|:---------------------------------------------------------------------------------------------------------------------:| -| ![Fahrzeugverfolgung](https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab) | ![Personenverfolgung](https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527) | ![Fischverfolgung](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142) | -| Fahrzeugverfolgung | Personenverfolgung | Fischverfolgung | - -## Eigenschaften auf einen Blick - -Ultralytics YOLO erweitert seine Objekterkennungsfunktionen, um eine robuste und vielseitige Objektverfolgung bereitzustellen: - -- **Echtzeitverfolgung:** Nahtloses Verfolgen von Objekten in Videos mit hoher Bildfrequenz. -- **Unterstützung mehrerer Tracker:** Auswahl aus einer Vielzahl etablierter Tracking-Algorithmen. -- **Anpassbare Tracker-Konfigurationen:** Anpassen des Tracking-Algorithmus an spezifische Anforderungen durch Einstellung verschiedener Parameter. - -## Verfügbare Tracker - -Ultralytics YOLO unterstützt die folgenden Tracking-Algorithmen. Sie können aktiviert werden, indem Sie die entsprechende YAML-Konfigurationsdatei wie `tracker=tracker_type.yaml` übergeben: - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - Verwenden Sie `botsort.yaml`, um diesen Tracker zu aktivieren. -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - Verwenden Sie `bytetrack.yaml`, um diesen Tracker zu aktivieren. - -Der Standardtracker ist BoT-SORT. - -## Verfolgung - -Um den Tracker auf Videostreams auszuführen, verwenden Sie ein trainiertes Erkennungs-, Segmentierungs- oder Posierungsmodell wie YOLOv8n, YOLOv8n-seg und YOLOv8n-pose. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Laden Sie ein offizielles oder individuelles Modell - model = YOLO('yolov8n.pt') # Laden Sie ein offizielles Erkennungsmodell - model = YOLO('yolov8n-seg.pt') # Laden Sie ein offizielles Segmentierungsmodell - model = YOLO('yolov8n-pose.pt') # Laden Sie ein offizielles Posierungsmodell - model = YOLO('path/to/best.pt') # Laden Sie ein individuell trainiertes Modell - - # Führen Sie die Verfolgung mit dem Modell durch - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # Verfolgung mit Standardtracker - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # Verfolgung mit ByteTrack-Tracker - ``` - - === "CLI" - - ```bash - # Führen Sie die Verfolgung mit verschiedenen Modellen über die Befehlszeilenschnittstelle durch - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # Offizielles Erkennungsmodell - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # Offizielles Segmentierungsmodell - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # Offizielles Posierungsmodell - yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # Individuell trainiertes Modell - - # Verfolgung mit ByteTrack-Tracker - yolo track model=path/to/best.pt tracker="bytetrack.yaml" - ``` - -Wie in der obigen Nutzung zu sehen ist, ist die Verfolgung für alle Detect-, Segment- und Pose-Modelle verfügbar, die auf Videos oder Streaming-Quellen ausgeführt werden. - -## Konfiguration - -### Tracking-Argumente - -Die Tracking-Konfiguration teilt Eigenschaften mit dem Predict-Modus, wie `conf`, `iou` und `show`. Für weitere Konfigurationen siehe die Seite des [Predict](https://docs.ultralytics.com/modes/predict/)-Modells. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Konfigurieren Sie die Tracking-Parameter und führen Sie den Tracker aus - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # Konfigurieren Sie die Tracking-Parameter und führen Sie den Tracker über die Befehlszeilenschnittstelle aus - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### Tracker-Auswahl - -Ultralytics ermöglicht es Ihnen auch, eine modifizierte Tracker-Konfigurationsdatei zu verwenden. Hierfür kopieren Sie einfach eine Tracker-Konfigurationsdatei (zum Beispiel `custom_tracker.yaml`) von [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) und ändern jede Konfiguration (außer dem `tracker_type`), wie es Ihren Bedürfnissen entspricht. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Laden Sie das Modell und führen Sie den Tracker mit einer individuellen Konfigurationsdatei aus - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # Laden Sie das Modell und führen Sie den Tracker mit einer individuellen Konfigurationsdatei über die Befehlszeilenschnittstelle aus - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -Für eine umfassende Liste der Tracking-Argumente siehe die Seite [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers). - -## Python-Beispiele - -### Persistierende Tracks-Schleife - -Hier ist ein Python-Skript, das OpenCV (`cv2`) und YOLOv8 verwendet, um Objektverfolgung in Videoframes durchzuführen. Dieses Skript setzt voraus, dass Sie die notwendigen Pakete (`opencv-python` und `ultralytics`) bereits installiert haben. Das Argument `persist=True` teilt dem Tracker mit, dass das aktuelle Bild oder Frame das nächste in einer Sequenz ist und Tracks aus dem vorherigen Bild im aktuellen Bild erwartet werden. - -!!! Example "Streaming-For-Schleife mit Tracking" - - ```python - import cv2 - from ultralytics import YOLO - - # Laden Sie das YOLOv8-Modell - model = YOLO('yolov8n.pt') - - # Öffnen Sie die Videodatei - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # Schleife durch die Videoframes - while cap.isOpened(): - # Einen Frame aus dem Video lesen - success, frame = cap.read() - - if success: - # Führen Sie YOLOv8-Tracking im Frame aus, wobei Tracks zwischen Frames beibehalten werden - results = model.track(frame, persist=True) - - # Visualisieren Sie die Ergebnisse im Frame - annotated_frame = results[0].plot() - - # Zeigen Sie den kommentierten Frame an - cv2.imshow("YOLOv8-Tracking", annotated_frame) - - # Beenden Sie die Schleife, wenn 'q' gedrückt wird - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # Beenden Sie die Schleife, wenn das Ende des Videos erreicht ist - break - - # Geben Sie das Videoaufnahmeobjekt frei und schließen Sie das Anzeigefenster - cap.release() - cv2.destroyAllWindows() - ``` - -Bitte beachten Sie die Änderung von `model(frame)` zu `model.track(frame)`, welche die Objektverfolgung anstelle der einfachen Erkennung aktiviert. Dieses modifizierte Skript führt den Tracker auf jedem Frame des Videos aus, visualisiert die Ergebnisse und zeigt sie in einem Fenster an. Die Schleife kann durch Drücken von 'q' beendet werden. - -## Neue Tracker beisteuern - -Sind Sie versiert in der Multi-Objektverfolgung und haben erfolgreich einen Tracking-Algorithmus mit Ultralytics YOLO implementiert oder angepasst? Wir laden Sie ein, zu unserem Trackers-Bereich in [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) beizutragen! Ihre realen Anwendungen und Lösungen könnten für Benutzer, die an Tracking-Aufgaben arbeiten, von unschätzbarem Wert sein. - -Indem Sie zu diesem Bereich beitragen, helfen Sie, das Spektrum verfügbarer Tracking-Lösungen innerhalb des Ultralytics YOLO-Frameworks zu erweitern und fügen eine weitere Funktionsschicht für die Gemeinschaft hinzu. - -Um Ihren Beitrag einzuleiten, sehen Sie bitte in unserem [Contributing Guide](https://docs.ultralytics.com/help/contributing) für umfassende Anweisungen zur Einreichung eines Pull Requests (PR) 🛠️. Wir sind gespannt darauf, was Sie beitragen! - -Gemeinsam verbessern wir die Tracking-Fähigkeiten des Ultralytics YOLO-Ökosystems 🙏! diff --git a/docs/de/modes/train.md b/docs/de/modes/train.md deleted file mode 100644 index b7ee65e50b4..00000000000 --- a/docs/de/modes/train.md +++ /dev/null @@ -1,206 +0,0 @@ ---- -comments: true -description: Schritt-für-Schritt-Leitfaden zum Trainieren von YOLOv8-Modellen mit Ultralytics YOLO, einschließlich Beispielen für Single-GPU- und Multi-GPU-Training -keywords: Ultralytics, YOLOv8, YOLO, Objekterkennung, Trainingsmodus, benutzerdefinierter Datensatz, GPU-Training, Multi-GPU, Hyperparameter, CLI-Beispiele, Python-Beispiele ---- - -# Modelltraining mit Ultralytics YOLO - -Ultralytics YOLO Ökosystem und Integrationen - -## Einleitung - -Das Training eines Deep-Learning-Modells beinhaltet das Einspeisen von Daten und die Anpassung seiner Parameter, so dass es genaue Vorhersagen treffen kann. Der Trainingsmodus in Ultralytics YOLOv8 ist für das effektive und effiziente Training von Objekterkennungsmodellen konzipiert und nutzt dabei die Fähigkeiten moderner Hardware voll aus. Dieser Leitfaden zielt darauf ab, alle Details zu vermitteln, die Sie benötigen, um mit dem Training Ihrer eigenen Modelle unter Verwendung des robusten Funktionssatzes von YOLOv8 zu beginnen. - -

-
- -
- Video anschauen: Wie man ein YOLOv8-Modell auf Ihrem benutzerdefinierten Datensatz in Google Colab trainiert. -

- -## Warum Ultralytics YOLO für das Training wählen? - -Hier einige überzeugende Gründe, sich für den Trainingsmodus von YOLOv8 zu entscheiden: - -- **Effizienz:** Machen Sie das Beste aus Ihrer Hardware, egal ob Sie auf einem Single-GPU-Setup sind oder über mehrere GPUs skalieren. -- **Vielseitigkeit:** Training auf benutzerdefinierten Datensätzen zusätzlich zu den bereits verfügbaren Datensätzen wie COCO, VOC und ImageNet. -- **Benutzerfreundlich:** Einfache, aber leistungsstarke CLI- und Python-Schnittstellen für ein unkompliziertes Trainingserlebnis. -- **Flexibilität der Hyperparameter:** Eine breite Palette von anpassbaren Hyperparametern, um die Modellleistung zu optimieren. - -### Schlüsselfunktionen des Trainingsmodus - -Die folgenden sind einige bemerkenswerte Funktionen von YOLOv8s Trainingsmodus: - -- **Automatischer Datensatz-Download:** Standarddatensätze wie COCO, VOC und ImageNet werden bei der ersten Verwendung automatisch heruntergeladen. -- **Multi-GPU-Unterstützung:** Skalieren Sie Ihr Training nahtlos über mehrere GPUs, um den Prozess zu beschleunigen. -- **Konfiguration der Hyperparameter:** Die Möglichkeit zur Modifikation der Hyperparameter über YAML-Konfigurationsdateien oder CLI-Argumente. -- **Visualisierung und Überwachung:** Echtzeit-Tracking von Trainingsmetriken und Visualisierung des Lernprozesses für bessere Einsichten. - -!!! Tip "Tipp" - - * YOLOv8-Datensätze wie COCO, VOC, ImageNet und viele andere werden automatisch bei der ersten Verwendung heruntergeladen, d.h. `yolo train data=coco.yaml` - -## Nutzungsbeispiele - -Trainieren Sie YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei einer Bildgröße von 640. Das Trainingsgerät kann mit dem Argument `device` spezifiziert werden. Wenn kein Argument übergeben wird, wird GPU `device=0` verwendet, wenn verfügbar, sonst wird `device=cpu` verwendet. Siehe den Abschnitt Argumente unten für eine vollständige Liste der Trainingsargumente. - -!!! Example "Beispiel für Single-GPU- und CPU-Training" - - Das Gerät wird automatisch ermittelt. Wenn eine GPU verfügbar ist, dann wird diese verwendet, sonst beginnt das Training auf der CPU. - - === "Python" - - ```python - from ultralytics import YOLO - - # Laden Sie ein Modell - model = YOLO('yolov8n.yaml') # bauen Sie ein neues Modell aus YAML - model = YOLO('yolov8n.pt') # laden Sie ein vortrainiertes Modell (empfohlen für das Training) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # bauen Sie aus YAML und übertragen Sie Gewichte - - # Trainieren Sie das Modell - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash - # Bauen Sie ein neues Modell aus YAML und beginnen Sie das Training von Grund auf - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Beginnen Sie das Training von einem vortrainierten *.pt Modell - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Bauen Sie ein neues Modell aus YAML, übertragen Sie vortrainierte Gewichte darauf und beginnen Sie das Training - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Multi-GPU-Training - -Multi-GPU-Training ermöglicht eine effizientere Nutzung von verfügbaren Hardware-Ressourcen, indem die Trainingslast über mehrere GPUs verteilt wird. Diese Funktion ist über sowohl die Python-API als auch die Befehlszeilenschnittstelle verfügbar. Um das Multi-GPU-Training zu aktivieren, geben Sie die GPU-Geräte-IDs an, die Sie verwenden möchten. - -!!! Example "Beispiel für Multi-GPU-Training" - - Um mit 2 GPUs zu trainieren, verwenden Sie die folgenden Befehle für CUDA-Geräte 0 und 1. Erweitern Sie dies bei Bedarf auf zusätzliche GPUs. - - === "Python" - - ```python - from ultralytics import YOLO - - # Laden Sie ein Modell - model = YOLO('yolov8n.pt') # laden Sie ein vortrainiertes Modell (empfohlen für das Training) - - # Trainieren Sie das Modell mit 2 GPUs - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # Beginnen Sie das Training von einem vortrainierten *.pt Modell unter Verwendung der GPUs 0 und 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### Apple M1- und M2-MPS-Training - -Mit der Unterstützung für Apple M1- und M2-Chips, die in den Ultralytics YOLO-Modellen integriert ist, ist es jetzt möglich, Ihre Modelle auf Geräten zu trainieren, die das leistungsstarke Metal Performance Shaders (MPS)-Framework nutzen. MPS bietet eine leistungsstarke Methode zur Ausführung von Berechnungs- und Bildverarbeitungsaufgaben auf Apples benutzerdefinierten Siliziumchips. - -Um das Training auf Apple M1- und M2-Chips zu ermöglichen, sollten Sie 'mps' als Ihr Gerät angeben, wenn Sie den Trainingsprozess starten. Unten ist ein Beispiel, wie Sie dies in Python und über die Befehlszeile tun könnten: - -!!! Example "MPS-Training Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Laden Sie ein Modell - model = YOLO('yolov8n.pt') # laden Sie ein vortrainiertes Modell (empfohlen für das Training) - - # Trainieren Sie das Modell mit 2 GPUs - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # Beginnen Sie das Training von einem vortrainierten *.pt Modell unter Verwendung der GPUs 0 und 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -Indem sie die Rechenleistung der M1/M2-Chips nutzen, ermöglicht dies eine effizientere Verarbeitung der Trainingsaufgaben. Für detailliertere Anleitungen und fortgeschrittene Konfigurationsoptionen beziehen Sie sich bitte auf die [PyTorch MPS-Dokumentation](https://pytorch.org/docs/stable/notes/mps.html). - -## Protokollierung - -Beim Training eines YOLOv8-Modells kann es wertvoll sein, die Leistung des Modells im Laufe der Zeit zu verfolgen. Hier kommt die Protokollierung ins Spiel. Ultralytics' YOLO unterstützt drei Typen von Loggern - Comet, ClearML und TensorBoard. - -Um einen Logger zu verwenden, wählen Sie ihn aus dem Dropdown-Menü im obigen Codeausschnitt aus und führen ihn aus. Der ausgewählte Logger wird installiert und initialisiert. - -### Comet - -[Comet](https://www.comet.ml/site/) ist eine Plattform, die Datenwissenschaftlern und Entwicklern erlaubt, Experimente und Modelle zu verfolgen, zu vergleichen, zu erklären und zu optimieren. Es bietet Funktionen wie Echtzeitmetriken, Code-Diffs und das Verfolgen von Hyperparametern. - -Um Comet zu verwenden: - -!!! Example "Beispiel" - - === "Python" - ```python - # pip installieren comet_ml - import comet_ml - - comet_ml.init() - ``` - -Vergessen Sie nicht, sich auf der Comet-Website anzumelden und Ihren API-Schlüssel zu erhalten. Sie müssen diesen zu Ihren Umgebungsvariablen oder Ihrem Skript hinzufügen, um Ihre Experimente zu protokollieren. - -### ClearML - -[ClearML](https://www.clear.ml/) ist eine Open-Source-Plattform, die das Verfolgen von Experimenten automatisiert und hilft, Ressourcen effizient zu teilen. Sie ist darauf ausgelegt, Teams bei der Verwaltung, Ausführung und Reproduktion ihrer ML-Arbeiten effizienter zu unterstützen. - -Um ClearML zu verwenden: - -!!! Example "Beispiel" - - === "Python" - ```python - # pip installieren clearml - import clearml - - clearml.browser_login() - ``` - -Nach dem Ausführen dieses Skripts müssen Sie sich auf dem Browser bei Ihrem ClearML-Konto anmelden und Ihre Sitzung authentifizieren. - -### TensorBoard - -[TensorBoard](https://www.tensorflow.org/tensorboard) ist ein Visualisierungstoolset für TensorFlow. Es ermöglicht Ihnen, Ihren TensorFlow-Graphen zu visualisieren, quantitative Metriken über die Ausführung Ihres Graphen zu plotten und zusätzliche Daten wie Bilder zu zeigen, die durch ihn hindurchgehen. - -Um TensorBoard in [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) zu verwenden: - -!!! Example "Beispiel" - - === "CLI" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # ersetzen Sie mit Ihrem 'runs' Verzeichnis - ``` - -Um TensorBoard lokal auszuführen, führen Sie den folgenden Befehl aus und betrachten Sie die Ergebnisse unter http://localhost:6006/. - -!!! Example "Beispiel" - - === "CLI" - ```bash - tensorboard --logdir ultralytics/runs # ersetzen Sie mit Ihrem 'runs' Verzeichnis - ``` - -Dies lädt TensorBoard und weist es an, das Verzeichnis zu verwenden, in dem Ihre Trainingsprotokolle gespeichert sind. - -Nachdem Sie Ihren Logger eingerichtet haben, können Sie mit Ihrem Modelltraining fortfahren. Alle Trainingsmetriken werden automatisch in Ihrer gewählten Plattform protokolliert, und Sie können auf diese Protokolle zugreifen, um die Leistung Ihres Modells im Laufe der Zeit zu überwachen, verschiedene Modelle zu vergleichen und Bereiche für Verbesserungen zu identifizieren. diff --git a/docs/de/modes/val.md b/docs/de/modes/val.md deleted file mode 100644 index 3f0c1880b08..00000000000 --- a/docs/de/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: Anleitung zur Validierung von YOLOv8-Modellen. Erfahren Sie, wie Sie die Leistung Ihrer YOLO-Modelle mit Validierungseinstellungen und Metriken in Python und CLI-Beispielen bewerten können. -keywords: Ultralytics, YOLO-Dokumente, YOLOv8, Validierung, Modellbewertung, Hyperparameter, Genauigkeit, Metriken, Python, CLI ---- - -# Modellvalidierung mit Ultralytics YOLO - -Ultralytics YOLO-Ökosystem und Integrationen - -## Einführung - -Die Validierung ist ein kritischer Schritt im Machine-Learning-Prozess, der es Ihnen ermöglicht, die Qualität Ihrer trainierten Modelle zu bewerten. Der Val-Modus in Ultralytics YOLOv8 bietet eine robuste Suite von Tools und Metriken zur Bewertung der Leistung Ihrer Objekterkennungsmodelle. Dieser Leitfaden dient als umfassende Ressource, um zu verstehen, wie Sie den Val-Modus effektiv nutzen können, um sicherzustellen, dass Ihre Modelle sowohl genau als auch zuverlässig sind. - -## Warum mit Ultralytics YOLO validieren? - -Hier sind die Vorteile der Verwendung des Val-Modus von YOLOv8: - -- **Präzision:** Erhalten Sie genaue Metriken wie mAP50, mAP75 und mAP50-95, um Ihr Modell umfassend zu bewerten. -- **Bequemlichkeit:** Nutzen Sie integrierte Funktionen, die Trainingseinstellungen speichern und so den Validierungsprozess vereinfachen. -- **Flexibilität:** Validieren Sie Ihr Modell mit den gleichen oder verschiedenen Datensätzen und Bildgrößen. -- **Hyperparameter-Tuning:** Verwenden Sie Validierungsmetriken, um Ihr Modell für eine bessere Leistung zu optimieren. - -### Schlüsselfunktionen des Val-Modus - -Dies sind die bemerkenswerten Funktionen, die der Val-Modus von YOLOv8 bietet: - -- **Automatisierte Einstellungen:** Modelle erinnern sich an ihre Trainingskonfigurationen für eine unkomplizierte Validierung. -- **Unterstützung mehrerer Metriken:** Bewerten Sie Ihr Modell anhand einer Reihe von Genauigkeitsmetriken. -- **CLI- und Python-API:** Wählen Sie zwischen Befehlszeilenschnittstelle oder Python-API basierend auf Ihrer Präferenz für die Validierung. -- **Datenkompatibilität:** Funktioniert nahtlos mit Datensätzen, die während der Trainingsphase sowie mit benutzerdefinierten Datensätzen verwendet wurden. - -!!! Tip "Tipp" - - * YOLOv8-Modelle speichern automatisch ihre Trainingseinstellungen, sodass Sie ein Modell mit der gleichen Bildgröße und dem ursprünglichen Datensatz leicht validieren können, indem Sie einfach `yolo val model=yolov8n.pt` oder `model('yolov8n.pt').val()` ausführen - -## Beispielverwendung - -Validieren Sie die Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz. Es muss kein Argument übergeben werden, da das `model` seine Trainings-`data` und Argumente als Modellattribute speichert. Siehe Abschnitt „Argumente“ unten für eine vollständige Liste der Exportargumente. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n.pt') # ein offizielles Modell laden - model = YOLO('path/to/best.pt') # ein benutzerdefiniertes Modell laden - - # Modell validieren - metrics = model.val() # keine Argumente benötigt, Datensatz und Einstellungen gespeichert - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # eine Liste enthält map50-95 jeder Kategorie - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # offizielles Modell validieren - yolo detect val model=path/to/best.pt # benutzerdefiniertes Modell validieren - ``` - -## Argumente - -Validierungseinstellungen für YOLO-Modelle beziehen sich auf verschiedene Hyperparameter und Konfigurationen, die verwendet werden, um die Leistung des Modells an einem Validierungsdatensatz zu bewerten. Diese Einstellungen können die Leistung, Geschwindigkeit und Genauigkeit des Modells beeinflussen. Einige gängige YOLO-Validierungseinstellungen umfassen die Batch-Größe, die Häufigkeit der Validierung während des Trainings und die Metriken zur Bewertung der Modellleistung. Andere Faktoren, die den Validierungsprozess beeinflussen können, sind die Größe und Zusammensetzung des Validierungsdatensatzes und die spezifische Aufgabe, für die das Modell verwendet wird. Es ist wichtig, diese Einstellungen sorgfältig abzustimmen und zu experimentieren, um sicherzustellen, dass das Modell auf dem Validierungsdatensatz gut funktioniert sowie Überanpassung zu erkennen und zu verhindern. - -| Key | Value | Beschreibung | -|---------------|---------|---------------------------------------------------------------------------------| -| `data` | `None` | Pfad zur Datendatei, z.B. coco128.yaml | -| `imgsz` | `640` | Größe der Eingabebilder als ganzzahlige Zahl | -| `batch` | `16` | Anzahl der Bilder pro Batch (-1 für AutoBatch) | -| `save_json` | `False` | Ergebnisse in JSON-Datei speichern | -| `save_hybrid` | `False` | hybride Version der Labels speichern (Labels + zusätzliche Vorhersagen) | -| `conf` | `0.001` | Objekterkennungsschwelle für Zuversichtlichkeit | -| `iou` | `0.6` | Schwellenwert für IoU (Intersection over Union) für NMS | -| `max_det` | `300` | maximale Anzahl an Vorhersagen pro Bild | -| `half` | `True` | Halbpräzision verwenden (FP16) | -| `device` | `None` | Gerät zur Ausführung, z.B. CUDA device=0/1/2/3 oder device=cpu | -| `dnn` | `False` | OpenCV DNN für ONNX-Inf erenz nutzen | -| `plots` | `False` | Diagramme während des Trainings anzeigen | -| `rect` | `False` | rechteckige Validierung mit jeder Batch-Charge für minimale Polsterung | -| `split` | `val` | Zu verwendende Daten-Teilmenge für Validierung, z.B. 'val', 'test' oder 'train' | -| diff --git a/docs/de/quickstart.md b/docs/de/quickstart.md deleted file mode 100644 index 1c9e629eabb..00000000000 --- a/docs/de/quickstart.md +++ /dev/null @@ -1,198 +0,0 @@ ---- -comments: true -description: Entdecken Sie verschiedene Methoden zur Installation von Ultralytics mit Pip, Conda, Git und Docker. Erfahren Sie, wie Sie Ultralytics über die Befehlszeilenschnittstelle oder innerhalb Ihrer Python-Projekte verwenden können. -keywords: Ultralytics-Installation, pip installieren Ultralytics, Docker installieren Ultralytics, Ultralytics-Befehlszeilenschnittstelle, Ultralytics Python-Schnittstelle ---- - -## Ultralytics installieren - -Ultralytics bietet verschiedene Installationsmethoden, darunter Pip, Conda und Docker. Installiere YOLOv8 über das `ultralytics` Pip-Paket für die neueste stabile Veröffentlichung oder indem du das [Ultralytics GitHub-Repository](https://github.com/ultralytics/ultralytics) klonst für die aktuellste Version. Docker kann verwendet werden, um das Paket in einem isolierten Container auszuführen, ohne eine lokale Installation vornehmen zu müssen. - -!!! Example "Installieren" - - === "Pip-Installation (empfohlen)" - Installieren Sie das `ultralytics` Paket mit Pip oder aktualisieren Sie eine bestehende Installation, indem Sie `pip install -U ultralytics` ausführen. Besuchen Sie den Python Package Index (PyPI) für weitere Details zum `ultralytics` Paket: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). - - [![PyPI-Version](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Downloads](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # Installiere das ultralytics Paket von PyPI - pip install ultralytics - ``` - - Sie können auch das `ultralytics` Paket direkt vom GitHub [Repository](https://github.com/ultralytics/ultralytics) installieren. Dies könnte nützlich sein, wenn Sie die neueste Entwicklerversion möchten. Stellen Sie sicher, dass das Git-Kommandozeilen-Tool auf Ihrem System installiert ist. Der Befehl `@main` installiert den `main` Branch und kann zu einem anderen Branch geändert werden, z. B. `@my-branch`, oder ganz entfernt werden, um auf den `main` Branch standardmäßig zurückzugreifen. - - ```bash - # Installiere das ultralytics Paket von GitHub - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "Conda-Installation" - Conda ist ein alternativer Paketmanager zu Pip, der ebenfalls für die Installation verwendet werden kann. Besuche Anaconda für weitere Details unter [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics). Ultralytics Feedstock Repository für die Aktualisierung des Conda-Pakets befindet sich unter [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/). - - - [![Conda Rezept](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Downloads](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Version](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Plattformen](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # Installiere das ultralytics Paket mit Conda - conda install -c conda-forge ultralytics - ``` - - !!! Note "Hinweis" - - Wenn Sie in einer CUDA-Umgebung installieren, ist es am besten, `ultralytics`, `pytorch` und `pytorch-cuda` im selben Befehl zu installieren, um dem Conda-Paketmanager zu ermöglichen, Konflikte zu lösen, oder `pytorch-cuda` als letztes zu installieren, damit es das CPU-spezifische `pytorch` Paket bei Bedarf überschreiben kann. - ```bash - # Installiere alle Pakete zusammen mit Conda - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Conda Docker-Image - - Ultralytics Conda Docker-Images sind ebenfalls von [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics) verfügbar. Diese Bilder basieren auf [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) und bieten eine einfache Möglichkeit, `ultralytics` in einer Conda-Umgebung zu nutzen. - - ```bash - # Setze Image-Name als Variable - t=ultralytics/ultralytics:latest-conda - - # Ziehe das neuste ultralytics Image von Docker Hub - sudo docker pull $t - - # Führe das ultralytics Image in einem Container mit GPU-Unterstützung aus - sudo docker run -it --ipc=host --gpus all $t # alle GPUs - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # spezifische GPUs angeben - ``` - - === "Git klonen" - Klonen Sie das `ultralytics` Repository, wenn Sie einen Beitrag zur Entwicklung leisten möchten oder mit dem neuesten Quellcode experimentieren wollen. Nach dem Klonen navigieren Sie in das Verzeichnis und installieren das Paket im editierbaren Modus `-e` mit Pip. - ```bash - # Klonen Sie das ultralytics Repository - git clone https://github.com/ultralytics/ultralytics - - # Navigiere zum geklonten Verzeichnis - cd ultralytics - - # Installiere das Paket im editierbaren Modus für die Entwicklung - pip install -e . - ``` - -Siehe die `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml) Datei für eine Liste der Abhängigkeiten. Beachten Sie, dass alle oben genannten Beispiele alle erforderlichen Abhängigkeiten installieren. - -

-
- -
- Watch: Ultralytics YOLO Quick Start Guide -

- -!!! Tip "Tipp" - - PyTorch-Anforderungen variieren je nach Betriebssystem und CUDA-Anforderungen, daher wird empfohlen, PyTorch zuerst gemäß den Anweisungen unter [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally) zu installieren. - - - PyTorch Installationsanweisungen - - -## Ultralytics mit CLI verwenden - -Die Befehlszeilenschnittstelle (CLI) von Ultralytics ermöglicht einfache Einzeilige Befehle ohne die Notwendigkeit einer Python-Umgebung. CLI erfordert keine Anpassung oder Python-Code. Sie können alle Aufgaben einfach vom Terminal aus mit dem `yolo` Befehl ausführen. Schauen Sie sich den [CLI-Leitfaden](/../usage/cli.md) an, um mehr über die Verwendung von YOLOv8 über die Befehlszeile zu erfahren. - -!!! Example "Beispiel" - - === "Syntax" - - Ultralytics `yolo` Befehle verwenden die folgende Syntax: - ```bash - yolo TASK MODE ARGS - - Wo TASK (optional) einer von [detect, segment, classify] ist - MODE (erforderlich) einer von [train, val, predict, export, track] ist - ARGS (optional) eine beliebige Anzahl von benutzerdefinierten 'arg=value' Paaren wie 'imgsz=320', die Vorgaben überschreiben. - ``` - Sehen Sie alle ARGS im vollständigen [Konfigurationsleitfaden](/../usage/cfg.md) oder mit `yolo cfg` - - === "Trainieren" - - Trainieren Sie ein Erkennungsmodell für 10 Epochen mit einer Anfangslernerate von 0.01 - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "Vorhersagen" - - Vorhersagen eines YouTube-Videos mit einem vortrainierten Segmentierungsmodell bei einer Bildgröße von 320: - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "Val" - - Val ein vortrainiertes Erkennungsmodell bei Batch-Größe 1 und Bildgröße 640: - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "Exportieren" - - Exportieren Sie ein YOLOv8n-Klassifikationsmodell im ONNX-Format bei einer Bildgröße von 224 mal 128 (kein TASK erforderlich) - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "Speziell" - - Führen Sie spezielle Befehle aus, um Version, Einstellungen zu sehen, Checks auszuführen und mehr: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "Warnung" - - Argumente müssen als `arg=val` Paare übergeben werden, getrennt durch ein Gleichheitszeichen `=` und durch Leerzeichen ` ` zwischen den Paaren. Verwenden Sie keine `--` Argumentpräfixe oder Kommata `,` zwischen den Argumenten. - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`   ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25`   ❌ - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25`   ❌ - -[CLI-Leitfaden](/../usage/cli.md){ .md-button } - -## Ultralytics mit Python verwenden - -Die Python-Schnittstelle von YOLOv8 ermöglicht eine nahtlose Integration in Ihre Python-Projekte und erleichtert das Laden, Ausführen und Verarbeiten der Modellausgabe. Konzipiert für Einfachheit und Benutzerfreundlichkeit, ermöglicht die Python-Schnittstelle Benutzern, Objekterkennung, Segmentierung und Klassifizierung schnell in ihren Projekten zu implementieren. Dies macht die Python-Schnittstelle von YOLOv8 zu einem unschätzbaren Werkzeug für jeden, der diese Funktionalitäten in seine Python-Projekte integrieren möchte. - -Benutzer können beispielsweise ein Modell laden, es trainieren, seine Leistung an einem Validierungsset auswerten und sogar in das ONNX-Format exportieren, und das alles mit nur wenigen Codezeilen. Schauen Sie sich den [Python-Leitfaden](/../usage/python.md) an, um mehr über die Verwendung von YOLOv8 in Ihren_python_pro_jek_ten zu erfahren. - -!!! Example "Beispiel" - - ```python - from ultralytics import YOLO - - # Erstellen Sie ein neues YOLO Modell von Grund auf - model = YOLO('yolov8n.yaml') - - # Laden Sie ein vortrainiertes YOLO Modell (empfohlen für das Training) - model = YOLO('yolov8n.pt') - - # Trainieren Sie das Modell mit dem Datensatz 'coco128.yaml' für 3 Epochen - results = model.train(data='coco128.yaml', epochs=3) - - # Bewerten Sie die Leistung des Modells am Validierungssatz - results = model.val() - - # Führen Sie eine Objekterkennung an einem Bild mit dem Modell durch - results = model('https://ultralytics.com/images/bus.jpg') - - # Exportieren Sie das Modell ins ONNX-Format - success = model.export(format='onnx') - ``` - -[Python-Leitfaden](/../usage/python.md){.md-button .md-button--primary} diff --git a/docs/de/tasks/classify.md b/docs/de/tasks/classify.md deleted file mode 100644 index bc2cf9ff2c7..00000000000 --- a/docs/de/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: Erfahren Sie mehr über YOLOv8 Classify-Modelle zur Bildklassifizierung. Erhalten Sie detaillierte Informationen über die Liste vortrainierter Modelle und wie man Modelle trainiert, validiert, vorhersagt und exportiert. -keywords: Ultralytics, YOLOv8, Bildklassifizierung, Vortrainierte Modelle, YOLOv8n-cls, Training, Validierung, Vorhersage, Modellexport ---- - -# Bildklassifizierung - -Beispiele für Bildklassifizierung - -Bildklassifizierung ist die einfachste der drei Aufgaben und besteht darin, ein ganzes Bild in eine von einem Satz vordefinierter Klassen zu klassifizieren. - -Die Ausgabe eines Bildklassifizierers ist ein einzelnes Klassenlabel und eine Vertrauenspunktzahl. Bildklassifizierung ist nützlich, wenn Sie nur wissen müssen, zu welcher Klasse ein Bild gehört, und nicht wissen müssen, wo sich Objekte dieser Klasse befinden oder wie ihre genaue Form ist. - -!!! Tip "Tipp" - - YOLOv8 Classify-Modelle verwenden den Suffix `-cls`, z.B. `yolov8n-cls.pt` und sind auf [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) vortrainiert. - -## [Modelle](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Hier werden vortrainierte YOLOv8 Classify-Modelle gezeigt. Detect-, Segment- und Pose-Modelle sind auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz vortrainiert, während Classify-Modelle auf dem [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)-Datensatz vortrainiert sind. - -[Modelle](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) werden automatisch vom neuesten Ultralytics-[Release](https://github.com/ultralytics/assets/releases) beim ersten Gebrauch heruntergeladen. - -| Modell | Größe
(Pixel) | Genauigkeit
top1 | Genauigkeit
top5 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) bei 640 | -|----------------------------------------------------------------------------------------------|-----------------------|--------------------------|--------------------------|------------------------------------------|-----------------------------------------------|-----------------------|---------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- **Genauigkeit**-Werte sind Modellgenauigkeiten auf dem [ImageNet](https://www.image-net.org/)-Datensatz Validierungsset. -
Zur Reproduktion `yolo val classify data=pfad/zu/ImageNet device=0 verwenden` -- **Geschwindigkeit** Durchschnitt über ImageNet-Validierungsbilder mit einer [Amazon EC2 P4d](https://aws.amazon.com/de/ec2/instance-types/p4/)-Instanz. -
Zur Reproduktion `yolo val classify data=pfad/zu/ImageNet batch=1 device=0|cpu verwenden` - -## Trainieren - -Trainieren Sie das YOLOv8n-cls-Modell auf dem MNIST160-Datensatz für 100 Epochen bei Bildgröße 64. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite [Konfiguration](/../usage/cfg.md). - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Ein Modell laden - model = YOLO('yolov8n-cls.yaml') # ein neues Modell aus YAML erstellen - model = YOLO('yolov8n-cls.pt') # ein vortrainiertes Modell laden (empfohlen für das Training) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # aus YAML erstellen und Gewichte übertragen - - # Das Modell trainieren - results = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # Ein neues Modell aus YAML erstellen und das Training von Grund auf starten - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # Das Training von einem vortrainierten *.pt Modell starten - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # Ein neues Modell aus YAML erstellen, vortrainierte Gewichte übertragen und das Training starten - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### Datenformat - -Das Datenformat für YOLO-Klassifizierungsdatensätze finden Sie im Detail im [Datenleitfaden](../../../datasets/classify/index.md). - -## Validieren - -Validieren Sie die Genauigkeit des trainierten YOLOv8n-cls-Modells auf dem MNIST160-Datensatz. Kein Argument muss übergeben werden, da das `modell` seine Trainings`daten` und Argumente als Modellattribute behält. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Ein Modell laden - model = YOLO('yolov8n-cls.pt') # ein offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # ein benutzerdefiniertes Modell laden - - # Das Modell validieren - metrics = model.val() # keine Argumente benötigt, Datensatz und Einstellungen gespeichert - metrics.top1 # top1 Genauigkeit - metrics.top5 # top5 Genauigkeit - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # ein offizielles Modell validieren - yolo classify val model=pfad/zu/best.pt # ein benutzerdefiniertes Modell validieren - ``` - -## Vorhersagen - -Verwenden Sie ein trainiertes YOLOv8n-cls-Modell, um Vorhersagen auf Bildern durchzuführen. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Ein Modell laden - model = YOLO('yolov8n-cls.pt') # ein offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # ein benutzerdefiniertes Modell laden - - # Mit dem Modell vorhersagen - results = model('https://ultralytics.com/images/bus.jpg') # Vorhersage auf einem Bild - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # mit offiziellem Modell vorhersagen - yolo classify predict model=pfad/zu/best.pt source='https://ultralytics.com/images/bus.jpg' # mit benutzerdefiniertem Modell vorhersagen - ``` - -Vollständige Details zum `predict`-Modus finden Sie auf der Seite [Vorhersage](https://docs.ultralytics.com/modes/predict/). - -## Exportieren - -Exportieren Sie ein YOLOv8n-cls-Modell in ein anderes Format wie ONNX, CoreML usw. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Ein Modell laden - model = YOLO('yolov8n-cls.pt') # ein offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # ein benutzerdefiniertes trainiertes Modell laden - - # Das Modell exportieren - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # offizielles Modell exportieren - yolo export model=pfad/zu/best.pt format=onnx # benutzerdefiniertes trainiertes Modell exportieren - ``` - -Verfügbare YOLOv8-cls Exportformate stehen in der folgenden Tabelle. Sie können direkt auf exportierten Modellen vorhersagen oder validieren, d.h. `yolo predict model=yolov8n-cls.onnx`. Nutzungsexempel werden für Ihr Modell nach Abschluss des Exports angezeigt. - -| Format | `format`-Argument | Modell | Metadaten | Argumente | -|--------------------------------------------------------------------|-------------------|-------------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -Vollständige Details zum `export` finden Sie auf der Seite [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/de/tasks/detect.md b/docs/de/tasks/detect.md deleted file mode 100644 index 7ebd7a67f02..00000000000 --- a/docs/de/tasks/detect.md +++ /dev/null @@ -1,184 +0,0 @@ ---- -comments: true -description: Offizielle Dokumentation für YOLOv8 von Ultralytics. Erfahren Sie, wie Sie Modelle trainieren, validieren, vorhersagen und in verschiedenen Formaten exportieren. Einschließlich detaillierter Leistungsstatistiken. -keywords: YOLOv8, Ultralytics, Objekterkennung, vortrainierte Modelle, Training, Validierung, Vorhersage, Modell-Export, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# Objekterkennung - -Beispiele für Objekterkennung - -Objekterkennung ist eine Aufgabe, die das Identifizieren der Position und Klasse von Objekten in einem Bild oder Videostream umfasst. - -Die Ausgabe eines Objekterkenners ist eine Menge von Begrenzungsrahmen, die die Objekte im Bild umschließen, zusammen mit Klassenbezeichnungen und Vertrauenswerten für jedes Feld. Objekterkennung ist eine gute Wahl, wenn Sie Objekte von Interesse in einer Szene identifizieren müssen, aber nicht genau wissen müssen, wo das Objekt ist oder wie seine genaue Form ist. - -

-
- -
- Sehen Sie: Objekterkennung mit vortrainiertem Ultralytics YOLOv8 Modell. -

- -!!! Tip "Tipp" - - YOLOv8 Detect Modelle sind die Standard YOLOv8 Modelle, zum Beispiel `yolov8n.pt`, und sind vortrainiert auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz. - -## [Modelle](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Hier werden die vortrainierten YOLOv8 Detect Modelle gezeigt. Detect, Segment und Pose Modelle sind vortrainiert auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz, während die Classify Modelle vortrainiert sind auf dem [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)-Datensatz. - -[Modelle](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) werden automatisch von der neuesten Ultralytics [Veröffentlichung](https://github.com/ultralytics/assets/releases) bei Erstbenutzung heruntergeladen. - -| Modell | Größe
(Pixel) | mAPval
50-95 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | params
(M) | FLOPs
(B) | -|--------------------------------------------------------------------------------------|-----------------------|----------------------|------------------------------------------|-----------------------------------------------|--------------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- **mAPval** Werte sind für Single-Modell Single-Scale auf dem [COCO val2017](https://cocodataset.org) Datensatz. -
Reproduzieren mit `yolo val detect data=coco.yaml device=0` -- **Geschwindigkeit** gemittelt über COCO Val Bilder mit einer [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)-Instanz. -
Reproduzieren mit `yolo val detect data=coco128.yaml batch=1 device=0|cpu` - -## Training - -YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei Bildgröße 640 trainieren. Für eine vollständige Liste verfügbarer Argumente siehe die [Konfigurationsseite](/../usage/cfg.md). - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n.yaml') # ein neues Modell aus YAML aufbauen - model = YOLO('yolov8n.pt') # ein vortrainiertes Modell laden (empfohlen für Training) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # aus YAML aufbauen und Gewichte übertragen - - # Das Modell trainieren - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Ein neues Modell aus YAML aufbauen und Training von Grund auf starten - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Training von einem vortrainierten *.pt Modell starten - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Ein neues Modell aus YAML aufbauen, vortrainierte Gewichte übertragen und Training starten - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Datenformat - -Das Datenformat für YOLO-Erkennungsdatensätze finden Sie detailliert im [Dataset Guide](../../../datasets/detect/index.md). Um Ihren vorhandenen Datensatz von anderen Formaten (wie COCO etc.) in das YOLO-Format zu konvertieren, verwenden Sie bitte das [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO)-Tool von Ultralytics. - -## Validierung - -Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz validieren. Es müssen keine Argumente übergeben werden, da das `modell` seine Trainingsdaten und Argumente als Modellattribute beibehält. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n.pt') # ein offizielles Modell laden - model = YOLO('pfad/zum/besten.pt') # ein benutzerdefiniertes Modell laden - - # Das Modell validieren - metrics = model.val() # keine Argumente nötig, Datensatz und Einstellungen erinnert - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # eine Liste enthält map50-95 jeder Kategorie - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # offizielles Modell validieren - yolo detect val model=pfad/zum/besten.pt # benutzerdefiniertes Modell validieren - ``` - -## Vorhersage - -Ein trainiertes YOLOv8n-Modell verwenden, um Vorhersagen auf Bildern durchzuführen. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n.pt') # ein offizielles Modell laden - model = YOLO('pfad/zum/besten.pt') # ein benutzerdefiniertes Modell laden - - # Mit dem Modell vorhersagen - results = model('https://ultralytics.com/images/bus.jpg') # Vorhersage auf einem Bild - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # Vorhersage mit offiziellem Modell - yolo detect predict model=pfad/zum/besten.pt source='https://ultralytics.com/images/bus.jpg' # Vorhersage mit benutzerdefiniertem Modell - ``` - -Volle Details über den `predict`-Modus finden Sie auf der [Predict-Seite](https://docs.ultralytics.com/modes/predict/). - -## Export - -Ein YOLOv8n-Modell in ein anderes Format wie ONNX, CoreML usw. exportieren. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n.pt') # ein offizielles Modell laden - model = YOLO('pfad/zum/besten.pt') # ein benutzerdefiniert trainiertes Modell laden - - # Das Modell exportieren - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # offizielles Modell exportieren - yolo export model=pfad/zum/besten.pt format=onnx # benutzerdefiniert trainiertes Modell exportieren - ``` - -Verfügbare YOLOv8 Exportformate sind in der untenstehenden Tabelle aufgeführt. Sie können direkt auf den exportierten Modellen Vorhersagen treffen oder diese validieren, zum Beispiel `yolo predict model=yolov8n.onnx`. Verwendungsbeispiele werden für Ihr Modell nach Abschluss des Exports angezeigt. - -| Format | `format`-Argument | Modell | Metadaten | Argumente | -|--------------------------------------------------------------------|-------------------|---------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Volle Details zum `export` finden Sie auf der [Export-Seite](https://docs.ultralytics.com/modes/export/). diff --git a/docs/de/tasks/index.md b/docs/de/tasks/index.md deleted file mode 100644 index 4077c5e4b58..00000000000 --- a/docs/de/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: Erfahren Sie, welche grundlegenden Aufgaben im Bereich der Computer Vision YOLOv8 durchführen kann, einschließlich Erkennung, Segmentierung, Klassifizierung und Haltungsschätzung, und wie sie in Ihren KI-Projekten verwendet werden können. -keywords: Ultralytics, YOLOv8, Erkennung, Segmentierung, Klassifizierung, Pose-Schätzung, KI-Framework, Computer Vision-Aufgaben ---- - -# Ultralytics YOLOv8 Aufgaben - -
-Ultralytics YOLO unterstützte Aufgaben - -YOLOv8 ist ein KI-Framework, das mehrere Aufgaben im Bereich der Computer Vision **unterstützt**. Das Framework kann für die [Erkennung](detect.md), [Segmentierung](segment.md), [Klassifizierung](classify.md) und die [Pose](pose.md)-Schätzung verwendet werden. Jede dieser Aufgaben hat ein unterschiedliches Ziel und Anwendungsgebiete. - -!!! Note "Hinweis" - - 🚧 Unsere mehrsprachigen Dokumentation befindet sich derzeit im Aufbau und wir arbeiten hart daran, sie zu verbessern. Danke für Ihre Geduld! 🙏 - -

-
- -
- Schauen Sie zu: Entdecken Sie Ultralytics YOLO Aufgaben: Objekterkennung, Segmentierung, Verfolgung und Pose-Schätzung. -

- -## [Erkennung](detect.md) - -Erkennung ist die primäre von YOLOv8 unterstützte Aufgabe. Sie beinhaltet das Erkennen von Objekten in einem Bild oder Videobild und das Zeichnen von Rahmen um sie herum. Die erkannten Objekte werden anhand ihrer Merkmale in verschiedene Kategorien klassifiziert. YOLOv8 kann mehrere Objekte in einem einzelnen Bild oder Videobild mit hoher Genauigkeit und Geschwindigkeit erkennen. - -[Beispiele für Erkennung](detect.md){ .md-button } - -## [Segmentierung](segment.md) - -Segmentierung ist eine Aufgabe, die das Aufteilen eines Bildes in unterschiedliche Regionen anhand des Bildinhalts beinhaltet. Jeder Region wird basierend auf ihrem Inhalt eine Markierung zugewiesen. Diese Aufgabe ist nützlich in Anwendungen wie der Bildsegmentierung und medizinischen Bildgebung. YOLOv8 verwendet eine Variante der U-Net-Architektur, um die Segmentierung durchzuführen. - -[Beispiele für Segmentierung](segment.md){ .md-button } - -## [Klassifizierung](classify.md) - -Klassifizierung ist eine Aufgabe, die das Einordnen eines Bildes in verschiedene Kategorien umfasst. YOLOv8 kann genutzt werden, um Bilder anhand ihres Inhalts zu klassifizieren. Es verwendet eine Variante der EfficientNet-Architektur, um die Klassifizierung durchzuführen. - -[Beispiele für Klassifizierung](classify.md){ .md-button } - -## [Pose](pose.md) - -Die Pose-/Keypoint-Erkennung ist eine Aufgabe, die das Erkennen von spezifischen Punkten in einem Bild oder Videobild beinhaltet. Diese Punkte werden als Keypoints bezeichnet und werden zur Bewegungsverfolgung oder Pose-Schätzung verwendet. YOLOv8 kann Keypoints in einem Bild oder Videobild mit hoher Genauigkeit und Geschwindigkeit erkennen. - -[Beispiele für Posen](pose.md){ .md-button } - -## Fazit - -YOLOv8 unterstützt mehrere Aufgaben, einschließlich Erkennung, Segmentierung, Klassifizierung und Keypoint-Erkennung. Jede dieser Aufgaben hat unterschiedliche Ziele und Anwendungsgebiete. Durch das Verständnis der Unterschiede zwischen diesen Aufgaben können Sie die geeignete Aufgabe für Ihre Anwendung im Bereich der Computer Vision auswählen. diff --git a/docs/de/tasks/pose.md b/docs/de/tasks/pose.md deleted file mode 100644 index be2905852da..00000000000 --- a/docs/de/tasks/pose.md +++ /dev/null @@ -1,185 +0,0 @@ ---- -comments: true -description: Erfahren Sie, wie Sie Ultralytics YOLOv8 für Aufgaben der Pose-Schätzung verwenden können. Finden Sie vortrainierte Modelle, lernen Sie, wie man eigene trainiert, validiert, vorhersagt und exportiert. -keywords: Ultralytics, YOLO, YOLOv8, Pose-Schätzung, Erkennung von Schlüsselpunkten, Objekterkennung, vortrainierte Modelle, maschinelles Lernen, künstliche Intelligenz ---- - -# Pose-Schätzung - -![Beispiele für die Pose-Schätzung](https://user-images.githubusercontent.com/26833433/243418616-9811ac0b-a4a7-452a-8aba-484ba32bb4a8.png) - -Die Pose-Schätzung ist eine Aufgabe, die das Identifizieren der Lage spezifischer Punkte in einem Bild beinhaltet, die normalerweise als Schlüsselpunkte bezeichnet werden. Die Schlüsselpunkte können verschiedene Teile des Objekts wie Gelenke, Landmarken oder andere charakteristische Merkmale repräsentieren. Die Positionen der Schlüsselpunkte sind üblicherweise als eine Gruppe von 2D `[x, y]` oder 3D `[x, y, sichtbar]` Koordinaten dargestellt. - -Das Ergebnis eines Pose-Schätzungsmodells ist eine Gruppe von Punkten, die die Schlüsselpunkte auf einem Objekt im Bild darstellen, normalerweise zusammen mit den Konfidenzwerten für jeden Punkt. Die Pose-Schätzung eignet sich gut, wenn Sie spezifische Teile eines Objekts in einer Szene identifizieren müssen und deren Lage zueinander. - -

-
- -
- Ansehen: Pose-Schätzung mit Ultralytics YOLOv8. -

- -!!! Tip "Tipp" - - YOLOv8 _pose_-Modelle verwenden den Suffix `-pose`, z. B. `yolov8n-pose.pt`. Diese Modelle sind auf dem [COCO-Schlüsselpunkte](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml)-Datensatz trainiert und für eine Vielzahl von Pose-Schätzungsaufgaben geeignet. - -## [Modelle](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Hier werden vortrainierte YOLOv8 Pose-Modelle gezeigt. Erkennungs-, Segmentierungs- und Pose-Modelle sind auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz vortrainiert, während Klassifizierungsmodelle auf dem [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)-Datensatz vortrainiert sind. - -[Modelle](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) werden automatisch aus der neuesten Ultralytics-[Veröffentlichung](https://github.com/ultralytics/assets/releases) bei erstmaliger Verwendung heruntergeladen. - -| Modell | Größe
(Pixel) | mAPpose
50-95 | mAPpose
50 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) | -|------------------------------------------------------------------------------------------------------|-----------------------|-----------------------|--------------------|------------------------------------------|-----------------------------------------------|-----------------------|-------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50,4 | 80,1 | 131,8 | 1,18 | 3,3 | 9,2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60,0 | 86,2 | 233,2 | 1,42 | 11,6 | 30,2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65,0 | 88,8 | 456,3 | 2,00 | 26,4 | 81,0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67,6 | 90,0 | 784,5 | 2,59 | 44,4 | 168,6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69,2 | 90,2 | 1607,1 | 3,73 | 69,4 | 263,2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71,6 | 91,2 | 4088,7 | 10,04 | 99,1 | 1066,4 | - -- **mAPval** Werte gelten für ein einzelnes Modell mit einfacher Skala auf dem [COCO Keypoints val2017](https://cocodataset.org)-Datensatz. -
Zu reproduzieren mit `yolo val pose data=coco-pose.yaml device=0`. -- **Geschwindigkeit** gemittelt über COCO-Validierungsbilder mit einer [Amazon EC2 P4d](https://aws.amazon.com/de/ec2/instance-types/p4/)-Instanz. -
Zu reproduzieren mit `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu`. - -## Trainieren - -Trainieren Sie ein YOLOv8-Pose-Modell auf dem COCO128-Pose-Datensatz. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n-pose.yaml') # ein neues Modell aus YAML bauen - model = YOLO('yolov8n-pose.pt') # ein vortrainiertes Modell laden (empfohlen für das Training) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # aus YAML bauen und Gewichte übertragen - - # Modell trainieren - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Ein neues Modell aus YAML bauen und das Training von Grund auf starten - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # Training von einem vortrainierten *.pt Modell starten - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # Ein neues Modell aus YAML bauen, vortrainierte Gewichte übertragen und das Training starten - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### Datensatzformat - -Das YOLO-Pose-Datensatzformat finden Sie detailliert im [Datensatz-Leitfaden](../../../datasets/pose/index.md). Um Ihren bestehenden Datensatz aus anderen Formaten (wie COCO usw.) in das YOLO-Format zu konvertieren, verwenden Sie bitte das [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO)-Tool von Ultralytics. - -## Validieren - -Die Genauigkeit des trainierten YOLOv8n-Pose-Modells auf dem COCO128-Pose-Datensatz validieren. Es müssen keine Argumente übergeben werden, da das `Modell` seine Trainings`daten` und Argumente als Modellattribute beibehält. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n-pose.pt') # ein offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # ein benutzerdefiniertes Modell laden - - # Modell validieren - metrics = model.val() # keine Argumente nötig, Datensatz und Einstellungen sind gespeichert - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # Liste enthält map50-95 jeder Kategorie - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # offizielles Modell validieren - yolo pose val model=pfad/zu/best.pt # benutzerdefiniertes Modell validieren - ``` - -## Vorhersagen - -Ein trainiertes YOLOv8n-Pose-Modell verwenden, um Vorhersagen auf Bildern zu machen. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n-pose.pt') # ein offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # ein benutzerdefiniertes Modell laden - - # Mit dem Modell Vorhersagen machen - results = model('https://ultralytics.com/images/bus.jpg') # Vorhersage auf einem Bild machen - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # Vorhersage mit dem offiziellen Modell machen - yolo pose predict model=pfad/zu/best.pt source='https://ultralytics.com/images/bus.jpg' # Vorhersage mit dem benutzerdefinierten Modell machen - ``` - -Vollständige `predict`-Modusdetails finden Sie auf der [Vorhersage](https://docs.ultralytics.com/modes/predict/)-Seite. - -## Exportieren - -Ein YOLOv8n-Pose-Modell in ein anderes Format wie ONNX, CoreML usw. exportieren. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n-pose.pt') # ein offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # ein benutzerdefiniertes Modell laden - - # Modell exportieren - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # offizielles Modell exportieren - yolo export model=pfad/zu/best.pt format=onnx # benutzerdefiniertes Modell exportieren - ``` - -Verfügbare YOLOv8-Pose-Exportformate sind in der folgenden Tabelle aufgeführt. Sie können direkt auf exportierten Modellen vorhersagen oder validieren, z. B. `yolo predict model=yolov8n-pose.onnx`. Verwendungsbeispiele werden für Ihr Modell nach Abschluss des Exports angezeigt. - -| Format | `format` Argument | Modell | Metadaten | Argumente | -|--------------------------------------------------------------------|-------------------|--------------------------------|-----------|-----------------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimieren` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `halb`, `dynamisch`, `vereinfachen`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `halb` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `halb`, `dynamisch`, `vereinfachen`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `halb`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `halb`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `halb` | - -Vollständige `export`-Details finden Sie auf der [Export](https://docs.ultralytics.com/modes/export/)-Seite. diff --git a/docs/de/tasks/segment.md b/docs/de/tasks/segment.md deleted file mode 100644 index 36638b62162..00000000000 --- a/docs/de/tasks/segment.md +++ /dev/null @@ -1,188 +0,0 @@ ---- -comments: true -description: Erfahren Sie, wie Sie Instanzsegmentierungsmodelle mit Ultralytics YOLO verwenden. Anleitungen zum Training, zur Validierung, zur Bildvorhersage und zum Export von Modellen. -Schlagworte: yolov8, Instanzsegmentierung, Ultralytics, COCO-Datensatz, Bildsegmentierung, Objekterkennung, Modelltraining, Modellvalidierung, Bildvorhersage, Modellexport ---- - -# Instanzsegmentierung - -![Beispiele für Instanzsegmentierung](https://user-images.githubusercontent.com/26833433/243418644-7df320b8-098d-47f1-85c5-26604d761286.png) - -Instanzsegmentierung geht einen Schritt weiter als die Objekterkennung und beinhaltet die Identifizierung einzelner Objekte in einem Bild und deren Abtrennung vom Rest des Bildes. - -Das Ergebnis eines Instanzsegmentierungsmodells ist eine Reihe von Masken oder Konturen, die jedes Objekt im Bild umreißen, zusammen mit Klassenbezeichnungen und Vertrauensscores für jedes Objekt. Instanzsegmentierung ist nützlich, wenn man nicht nur wissen muss, wo sich Objekte in einem Bild befinden, sondern auch, welche genaue Form sie haben. - -

-
- -
- Schauen Sie: Führen Sie Segmentierung mit dem vortrainierten Ultralytics YOLOv8 Modell in Python aus. -

- -!!! Tip "Tipp" - - YOLOv8 Segment-Modelle verwenden das Suffix `-seg`, d.h. `yolov8n-seg.pt` und sind auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz vortrainiert. - -## [Modelle](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Hier werden vortrainierte YOLOv8 Segment-Modelle gezeigt. Detect-, Segment- und Pose-Modelle sind auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz vortrainiert, während Classify-Modelle auf dem [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)-Datensatz vortrainiert sind. - -[Modelle](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) laden sich automatisch von der neuesten Ultralytics [Veröffentlichung](https://github.com/ultralytics/assets/releases) beim ersten Gebrauch herunter. - -| Modell | Größe
(Pixel) | mAPKasten
50-95 | mAPMasken
50-95 | Geschwindigkeit
CPU ONNX
(ms) | Geschwindigkeit
A100 TensorRT
(ms) | Parameter
(M) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|-----------------------|-------------------------|-------------------------|------------------------------------------|-----------------------------------------------|-----------------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- Die **mAPval**-Werte sind für ein einzelnes Modell, einzelne Skala auf dem [COCO val2017](https://cocodataset.org)-Datensatz. -
Zum Reproduzieren nutzen Sie `yolo val segment data=coco.yaml device=0` -- Die **Geschwindigkeit** ist über die COCO-Validierungsbilder gemittelt und verwendet eine [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)-Instanz. -
Zum Reproduzieren `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` - -## Training - -Trainieren Sie YOLOv8n-seg auf dem COCO128-seg-Datensatz für 100 Epochen mit einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite [Konfiguration](/../usage/cfg.md). - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n-seg.yaml') # ein neues Modell aus YAML erstellen - model = YOLO('yolov8n-seg.pt') # ein vortrainiertes Modell laden (empfohlen für das Training) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # aus YAML erstellen und Gewichte übertragen - - # Das Modell trainieren - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Ein neues Modell aus YAML erstellen und das Training von vorne beginnen - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # Das Training von einem vortrainierten *.pt Modell aus starten - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # Ein neues Modell aus YAML erstellen, vortrainierte Gewichte darauf übertragen und das Training beginnen - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### Datenformat - -Das YOLO Segmentierungsdatenformat finden Sie detailliert im [Dataset Guide](../../../datasets/segment/index.md). Um Ihre vorhandenen Daten aus anderen Formaten (wie COCO usw.) in das YOLO-Format umzuwandeln, verwenden Sie bitte das [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO)-Tool von Ultralytics. - -## Val - -Validieren Sie die Genauigkeit des trainierten YOLOv8n-seg-Modells auf dem COCO128-seg-Datensatz. Es müssen keine Argumente übergeben werden, da das `Modell` seine Trainingsdaten und -argumente als Modellattribute behält. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n-seg.pt') # offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # benutzerdefiniertes Modell laden - - # Das Modell validieren - metrics = model.val() # Keine Argumente erforderlich, Datensatz und Einstellungen werden behalten - metrics.box.map # mAP50-95(B) - metrics.box.map50 # mAP50(B) - metrics.box.map75 # mAP75(B) - metrics.box.maps # eine Liste enthält mAP50-95(B) für jede Kategorie - metrics.seg.map # mAP50-95(M) - metrics.seg.map50 # mAP50(M) - metrics.seg.map75 # mAP75(M) - metrics.seg.maps # eine Liste enthält mAP50-95(M) für jede Kategorie - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # offizielles Modell validieren - yolo segment val model=pfad/zu/best.pt # benutzerdefiniertes Modell validieren - ``` - -## Predict - -Verwenden Sie ein trainiertes YOLOv8n-seg-Modell für Vorhersagen auf Bildern. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n-seg.pt') # offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # benutzerdefiniertes Modell laden - - # Mit dem Modell Vorhersagen treffen - results = model('https://ultralytics.com/images/bus.jpg') # Vorhersage auf einem Bild - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # Vorhersage mit offiziellem Modell treffen - yolo segment predict model=pfad/zu/best.pt source='https://ultralytics.com/images/bus.jpg' # Vorhersage mit benutzerdefiniertem Modell treffen - ``` - -Die vollständigen Details zum `predict`-Modus finden Sie auf der Seite [Predict](https://docs.ultralytics.com/modes/predict/). - -## Export - -Exportieren Sie ein YOLOv8n-seg-Modell in ein anderes Format wie ONNX, CoreML usw. - -!!! Example "Beispiel" - - === "Python" - - ```python - from ultralytics import YOLO - - # Modell laden - model = YOLO('yolov8n-seg.pt') # offizielles Modell laden - model = YOLO('pfad/zu/best.pt') # benutzerdefiniertes trainiertes Modell laden - - # Das Modell exportieren - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # offizielles Modell exportieren - yolo export model=pfad/zu/best.pt format=onnx # benutzerdefiniertes trainiertes Modell exportieren - ``` - -Die verfügbaren YOLOv8-seg-Exportformate sind in der folgenden Tabelle aufgeführt. Sie können direkt auf exportierten Modellen Vorhersagen treffen oder sie validieren, z.B. `yolo predict model=yolov8n-seg.onnx`. Verwendungsbeispiele werden für Ihr Modell nach dem Export angezeigt. - -| Format | `format`-Argument | Modell | Metadaten | Argumente | -|--------------------------------------------------------------------|-------------------|-------------------------------|-----------|-----------------------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimieren` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `halb`, `dynamisch`, `vereinfachen`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `halb` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `halb`, `dynamisch`, `vereinfachen`, `Arbeitsspeicher` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `halb`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `halb`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `halb` | - -Die vollständigen Details zum `export` finden Sie auf der Seite [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/en/datasets/detect/african-wildlife.md b/docs/en/datasets/detect/african-wildlife.md new file mode 100644 index 00000000000..3970ffa5cef --- /dev/null +++ b/docs/en/datasets/detect/african-wildlife.md @@ -0,0 +1,92 @@ +--- +comments: true +description: African Wildlife objects detection, a leading dataset for object detection in forests, integrates with Ultralytics. Discover ways to use it for training YOLO models. +keywords: Ultralytics, African Wildlife dataset, object detection, YOLO, YOLO model training, object tracking, computer vision, deep learning models, forest research, animals tracking +--- + +# African Wildlife Dataset + +This dataset showcases four common animal classes typically found in South African nature reserves. It includes images of African wildlife such as buffalo, elephant, rhino, and zebra, providing valuable insights into their characteristics. Essential for training computer vision algorithms, this dataset aids in identifying animals in various habitats, from zoos to forests, and supports wildlife research. + +## Dataset Structure + +The African wildlife objects detection dataset is split into three subsets: + +- **Training set**: Contains 1052 images, each with corresponding annotations. +- **Validation set**: Includes 225 images, each with paired annotations. +- **Testing set**: Comprises 227 images, each with paired annotations. + +## Applications + +This dataset can be applied in various computer vision tasks such as object detection, object tracking, and research. Specifically, it can be used to train and evaluate models for identifying African wildlife objects in images, which can have applications in wildlife conservation, ecological research, and monitoring efforts in natural reserves and protected areas. Additionally, it can serve as a valuable resource for educational purposes, enabling students and researchers to study and understand the characteristics and behaviors of different animal species. + +## Dataset YAML + +A YAML (Yet Another Markup Language) file defines the dataset configuration, including paths, classes, and other pertinent details. For the African wildlife dataset, the `african-wildlife.yaml` file is located at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/african-wildlife.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/african-wildlife.yaml). + +!!! Example "ultralytics/cfg/datasets/african-wildlife.yaml" + + ```yaml + --8<-- "ultralytics/cfg/datasets/african-wildlife.yaml" + ``` + +## Usage + +To train a YOLOv8n model on the African wildlife dataset for 100 epochs with an image size of 640, use the provided code samples. For a comprehensive list of available parameters, refer to the model's [Training](../../modes/train.md) page. + +!!! Example "Train Example" + + === "Python" + + ```python + from ultralytics import YOLO + + # Load a model + model = YOLO('yolov8n.pt') # load a pretrained model (recommended for training) + + # Train the model + results = model.train(data='african-wildlife.yaml', epochs=100, imgsz=640) + ``` + + === "CLI" + + ```bash + # Start training from a pretrained *.pt model + yolo detect train data=african-wildlife.yaml model=yolov8n.pt epochs=100 imgsz=640 + ``` + +!!! Example "Inference Example" + + === "Python" + + ```python + from ultralytics import YOLO + + # Load a model + model = YOLO('path/to/best.pt') # load a brain-tumor fine-tuned model + + # Inference using the model + results = model.predict("https://ultralytics.com/assets/african-wildlife-sample.jpg") + ``` + + === "CLI" + + ```bash + # Start prediction with a finetuned *.pt model + yolo detect predict model='path/to/best.pt' imgsz=640 source="https://ultralytics.com/assets/african-wildlife-sample.jpg" + ``` + + +## Sample Images and Annotations + +The African wildlife dataset comprises a wide variety of images showcasing diverse animal species and their natural habitats. Below are examples of images from the dataset, each accompanied by its corresponding annotations. + +![African wildlife dataset sample image](https://github.com/RizwanMunawar/RizwanMunawar/assets/62513924/919f8190-ccf3-4a96-a5f1-55d9eebc77ec) + +- **Mosaiced Image**: Here, we present a training batch consisting of mosaiced dataset images. Mosaicing, a training technique, combines multiple images into one, enriching batch diversity. This method helps enhance the model's ability to generalize across different object sizes, aspect ratios, and contexts. + +This example illustrates the variety and complexity of images in the African wildlife dataset, emphasizing the benefits of including mosaicing during the training process. + +## Citations and Acknowledgments + +The dataset has been released available under the [AGPL-3.0 License](https://github.com/ultralytics/ultralytics/blob/main/LICENSE). \ No newline at end of file diff --git a/docs/en/datasets/detect/brain-tumor.md b/docs/en/datasets/detect/brain-tumor.md new file mode 100644 index 00000000000..1507e74785d --- /dev/null +++ b/docs/en/datasets/detect/brain-tumor.md @@ -0,0 +1,91 @@ +--- +comments: true +description: Brain tumor detection, a leading dataset for medical imaging, integrates with Ultralytics. Discover ways to use it for training YOLO models. +keywords: Ultralytics, Brain Tumor dataset, object detection, YOLO, YOLO model training, object tracking, computer vision, deep learning models +--- + +# Brain Tumor Dataset + +A brain tumor detection dataset consists of medical images from MRI or CT scans, containing information about brain tumor presence, location, and characteristics. This dataset is essential for training computer vision algorithms to automate brain tumor identification, aiding in early diagnosis and treatment planning. + +## Dataset Structure + +The brain tumor dataset is divided into two subsets: + +- **Training set**: Consisting of 893 images, each accompanied by corresponding annotations. +- **Testing set**: Comprising 223 images, with annotations paired for each one. + +## Applications + +The application of brain tumor detection using computer vision enables early diagnosis, treatment planning, and monitoring of tumor progression. By analyzing medical imaging data like MRI or CT scans, computer vision systems assist in accurately identifying brain tumors, aiding in timely medical intervention and personalized treatment strategies. + +## Dataset YAML + +A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the brain tumor dataset, the `brain-tumor.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/brain-tumor.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/brain-tumor.yaml). + +!!! Example "ultralytics/cfg/datasets/brain-tumor.yaml" + + ```yaml + --8<-- "ultralytics/cfg/datasets/brain-tumor.yaml" + ``` + +## Usage + +To train a YOLOv8n model on the brain tumor dataset for 100 epochs with an image size of 640, utilize the provided code snippets. For a detailed list of available arguments, consult the model's [Training](../../modes/train.md) page. + +!!! Example "Train Example" + + === "Python" + + ```python + from ultralytics import YOLO + + # Load a model + model = YOLO('yolov8n.pt') # load a pretrained model (recommended for training) + + # Train the model + results = model.train(data='brain-tumor.yaml', epochs=100, imgsz=640) + ``` + + === "CLI" + + ```bash + # Start training from a pretrained *.pt model + yolo detect train data=brain-tumor.yaml model=yolov8n.pt epochs=100 imgsz=640 + ``` + +!!! Example "Inference Example" + + === "Python" + + ```python + from ultralytics import YOLO + + # Load a model + model = YOLO('path/to/best.pt') # load a brain-tumor fine-tuned model + + # Inference using the model + results = model.predict("https://ultralytics.com/assets/brain-tumor-sample.jpg") + ``` + + === "CLI" + + ```bash + # Start prediction with a finetuned *.pt model + yolo detect predict model='path/to/best.pt' imgsz=640 source="https://ultralytics.com/assets/brain-tumor-sample.jpg" + ``` + + +## Sample Images and Annotations + +The brain tumor dataset encompasses a wide array of images featuring diverse object categories and intricate scenes. Presented below are examples of images from the dataset, accompanied by their respective annotations + +![Brain tumor dataset sample image](https://github.com/RizwanMunawar/RizwanMunawar/assets/62513924/1741cbf5-2462-4e9a-b0b9-4a07d76cf7ef) + +- **Mosaiced Image**: Displayed here is a training batch comprising mosaiced dataset images. Mosaicing, a training technique, consolidates multiple images into one, enhancing batch diversity. This approach aids in improving the model's capacity to generalize across various object sizes, aspect ratios, and contexts. + +This example highlights the diversity and intricacy of images within the brain tumor dataset, underscoring the advantages of incorporating mosaicing during the training phase. + +## Citations and Acknowledgments + +The dataset has been released available under the [AGPL-3.0 License](https://github.com/ultralytics/ultralytics/blob/main/LICENSE). \ No newline at end of file diff --git a/docs/en/datasets/detect/coco.md b/docs/en/datasets/detect/coco.md index 5fd170053ca..65d5c949cb5 100644 --- a/docs/en/datasets/detect/coco.md +++ b/docs/en/datasets/detect/coco.md @@ -8,6 +8,17 @@ keywords: Ultralytics, COCO dataset, object detection, YOLO, YOLO model training The [COCO](https://cocodataset.org/#home) (Common Objects in Context) dataset is a large-scale object detection, segmentation, and captioning dataset. It is designed to encourage research on a wide variety of object categories and is commonly used for benchmarking computer vision models. It is an essential dataset for researchers and developers working on object detection, segmentation, and pose estimation tasks. +

+
+ +
+ Watch: Ultralytics COCO Dataset Overview +

+ ## Key Features - COCO contains 330K images, with 200K images having annotations for object detection, segmentation, and captioning tasks. diff --git a/docs/en/datasets/detect/coco8.md b/docs/en/datasets/detect/coco8.md index a16af1f5d5f..dd4070ee56f 100644 --- a/docs/en/datasets/detect/coco8.md +++ b/docs/en/datasets/detect/coco8.md @@ -10,6 +10,17 @@ keywords: Ultralytics, COCO8 dataset, object detection, model testing, dataset c [Ultralytics](https://ultralytics.com) COCO8 is a small, but versatile object detection dataset composed of the first 8 images of the COCO train 2017 set, 4 for training and 4 for validation. This dataset is ideal for testing and debugging object detection models, or for experimenting with new detection approaches. With 8 images, it is small enough to be easily manageable, yet diverse enough to test training pipelines for errors and act as a sanity check before training larger datasets. +

+
+ +
+ Watch: Ultralytics COCO Dataset Overview +

+ This dataset is intended for use with Ultralytics [HUB](https://hub.ultralytics.com) and [YOLOv8](https://github.com/ultralytics/ultralytics). ## Dataset YAML diff --git a/docs/en/datasets/detect/index.md b/docs/en/datasets/detect/index.md index 501790d4607..430853db62d 100644 --- a/docs/en/datasets/detect/index.md +++ b/docs/en/datasets/detect/index.md @@ -82,6 +82,8 @@ Here is a list of the supported datasets and a brief description for each: - [**VisDrone**](visdrone.md): A dataset focusing on drone-based images, containing various object categories like cars, pedestrians, and cyclists. - [**VOC**](voc.md): PASCAL VOC is a popular object detection dataset with 20 object categories including vehicles, animals, and furniture. - [**xView**](xview.md): A dataset containing high-resolution satellite imagery, designed for the detection of various object classes in overhead views. +- [**Brain-tumor**](brain-tumor.md): This dataset comprises MRI or CT scan images containing information about brain tumor presence, location, and characteristics. It plays a crucial role in training computer vision models to automate tumor identification, facilitating early diagnosis and treatment planning. +- [**African-wildlife**](african-wildlife.md): Featuring images of African wildlife such as buffalo, elephant, rhino, and zebra, this dataset is instrumental in training computer vision models. It is indispensable for identifying animals across different habitats and contributes significantly to wildlife research endeavors. ### Adding your own dataset diff --git a/docs/en/datasets/detect/open-images-v7.md b/docs/en/datasets/detect/open-images-v7.md index 0beb342793b..8d70f751f85 100644 --- a/docs/en/datasets/detect/open-images-v7.md +++ b/docs/en/datasets/detect/open-images-v7.md @@ -8,6 +8,17 @@ keywords: Open Images V7, object detection, segmentation masks, visual relations [Open Images V7](https://storage.googleapis.com/openimages/web/index.html) is a versatile and expansive dataset championed by Google. Aimed at propelling research in the realm of computer vision, it boasts a vast collection of images annotated with a plethora of data, including image-level labels, object bounding boxes, object segmentation masks, visual relationships, and localized narratives. +

+
+ +
+ Watch: Object Detection using OpenImagesV7 Pretrained Model +

+ ## Open Images V7 Pretrained Models | Model | size
(pixels) | mAPval
50-95 | Speed
CPU ONNX
(ms) | Speed
A100 TensorRT
(ms) | params
(M) | FLOPs
(B) | diff --git a/docs/en/datasets/detect/roboflow-100.md b/docs/en/datasets/detect/roboflow-100.md new file mode 100644 index 00000000000..af130e35480 --- /dev/null +++ b/docs/en/datasets/detect/roboflow-100.md @@ -0,0 +1,80 @@ +--- +comments: true +description: Get to know Roboflow 100, a comprehensive object detection benchmark that brings together 100 datasets from different domains. +keywords: Ultralytics, YOLOv8, YOLO models, Roboflow 100, object detection, benchmark, computer vision, datasets, deep learning models +--- + +# Roboflow 100 Dataset + +Roboflow 100, developed by [Roboflow](https://roboflow.com/?ref=ultralytics) and sponsored by Intel, is a groundbreaking [object detection](../../tasks/detect.md) benchmark. It includes 100 diverse datasets sampled from over 90,000 public datasets. This benchmark is designed to test the adaptability of models to various domains, including healthcare, aerial imagery, and video games. + +

+ Roboflow 100 Overview +

+ +## Key Features + +- Includes 100 datasets across seven domains: Aerial, Video games, Microscopic, Underwater, Documents, Electromagnetic, and Real World. +- The benchmark comprises 224,714 images across 805 classes, thanks to over 11,170 hours of labeling efforts. +- All images are resized to 640x640 pixels, with a focus on eliminating class ambiguity and filtering out underrepresented classes. +- Annotations include bounding boxes for objects, making it suitable for [training](../../modes/train.md) and evaluating object detection models. + +## Dataset Structure + +The Roboflow 100 dataset is organized into seven categories, each with a distinct set of datasets, images, and classes: + +- **Aerial**: Consists of 7 datasets with a total of 9,683 images, covering 24 distinct classes. +- **Video Games**: Includes 7 datasets, featuring 11,579 images across 88 classes. +- **Microscopic**: Comprises 11 datasets with 13,378 images, spanning 28 classes. +- **Underwater**: Contains 5 datasets, encompassing 18,003 images in 39 classes. +- **Documents**: Consists of 8 datasets with 24,813 images, divided into 90 classes. +- **Electromagnetic**: Made up of 12 datasets, totaling 36,381 images in 41 classes. +- **Real World**: The largest category with 50 datasets, offering 110,615 images across 495 classes. + +This structure enables a diverse and extensive testing ground for object detection models, reflecting real-world application scenarios. + +## Applications + +Roboflow 100 is invaluable for various applications related to computer vision and deep learning. Researchers and engineers can use this benchmark to: + +- Evaluate the performance of object detection models in a multi-domain context. +- Test the adaptability of models to real-world scenarios beyond common object recognition. +- Benchmark the capabilities of object detection models across diverse datasets, including those in healthcare, aerial imagery, and video games. + +For more ideas and inspiration on real-world applications, be sure to check out [our guides on real-world projects](../../guides/index.md). + +## Usage + +The Roboflow 100 dataset is available on both [GitHub](https://github.com/roboflow/roboflow-100-benchmark) and [Roboflow Universe](https://universe.roboflow.com/roboflow-100). + +You can access it directly from the Roboflow 100 GitHub repository. In addition, on Roboflow Universe, you have the flexibility to download individual datasets by simply clicking the export button within each dataset. + +## Sample Data and Annotations + +Roboflow 100 consists of datasets with diverse images and videos captured from various angles and domains. Here’s a look at examples of annotated images in the RF100 benchmark. + +

+ Sample Data and Annotations +

+ +The diversity in the Roboflow 100 benchmark that can be seen above is a significant advancement from traditional benchmarks which often focus on optimizing a single metric within a limited domain. + +## Citations and Acknowledgments + +If you use the Roboflow 100 dataset in your research or development work, please cite the following paper: + +!!! Quote "" + + === "BibTeX" + + ```bibtex + @misc{2211.13523, + Author = {Floriana Ciaglia and Francesco Saverio Zuppichini and Paul Guerrie and Mark McQuade and Jacob Solawetz}, + Title = {Roboflow 100: A Rich, Multi-Domain Object Detection Benchmark}, + Eprint = {arXiv:2211.13523}, + } + ``` + +Our thanks go to the Roboflow team and all the contributors for their hard work in creating and sustaining the Roboflow 100 dataset. + +If you are interested in exploring more datasets to enhance your object detection and machine learning projects, feel free to visit [our comprehensive dataset collection](../index.md). diff --git a/docs/en/datasets/explorer/api.md b/docs/en/datasets/explorer/api.md index f7ea8d737c5..aa24f55ede8 100644 --- a/docs/en/datasets/explorer/api.md +++ b/docs/en/datasets/explorer/api.md @@ -11,6 +11,17 @@ keywords: Ultralytics Explorer API, Dataset Exploration, SQL Queries, Vector Sim Open In Colab The Explorer API is a Python API for exploring your datasets. It supports filtering and searching your dataset using SQL queries, vector similarity search and semantic search. +

+
+ +
+ Watch: Ultralytics Explorer API Overview +

+ ## Installation Explorer depends on external libraries for some of its functionality. These are automatically installed on usage. To manually install these dependencies, use the following command: @@ -181,8 +192,8 @@ You can also plot the results of a SQL query using the `plot_sql_query` method. exp = Explorer(data='coco128.yaml', model='yolov8n.pt') exp.create_embeddings_table() - df = exp.sql_query("WHERE labels LIKE '%person%' AND labels LIKE '%dog%'") - print(df.head()) + # plot the SQL Query + exp.plot_sql_query("WHERE labels LIKE '%person%' AND labels LIKE '%dog%' LIMIT 10") ``` ## 4. Advanced - Working with Embeddings Table @@ -216,7 +227,7 @@ Here are some examples of what you can do with the table: print(embeddings) ``` -### Advanced Querying with pre and post filters +### Advanced Querying with pre- and post-filters !!! Example diff --git a/docs/en/datasets/explorer/dashboard.md b/docs/en/datasets/explorer/dashboard.md index 450d01e5ada..513e140f9d1 100644 --- a/docs/en/datasets/explorer/dashboard.md +++ b/docs/en/datasets/explorer/dashboard.md @@ -9,7 +9,18 @@ keywords: Ultralytics, Explorer GUI, semantic search, vector similarity search, Explorer GUI is like a playground build using [Ultralytics Explorer API](api.md). It allows you to run semantic/vector similarity search, SQL queries and even search using natural language using our ask AI feature powered by LLMs.

-Explorer Dashboard Screenshot 1 + Explorer Dashboard Screenshot 1 +

+ +

+
+ +
+ Watch: Ultralytics Explorer Dashboard Overview

### Installation @@ -28,21 +39,21 @@ pip install ultralytics[explorer] Semantic search is a technique for finding similar images to a given image. It is based on the idea that similar images will have similar embeddings. In the UI, you can select one of more images and search for the images similar to them. This can be useful when you want to find images similar to a given image or a set of images that don't perform as expected. For example: -In this VOC Exploration dashboard, user selects a couple aeroplane images like this: +In this VOC Exploration dashboard, user selects a couple airplane images like this:

-Explorer Dashboard Screenshot 2 +Explorer Dashboard Screenshot 2

On performing similarity search, you should see a similar result:

-Explorer Dashboard Screenshot 3 +Explorer Dashboard Screenshot 3

## Ask AI This allows you to write how you want to filter your dataset using natural language. You don't have to be proficient in writing SQL queries. Our AI powered query generator will automatically do that under the hood. For example - you can say - "show me 100 images with exactly one person and 2 dogs. There can be other objects too" and it'll internally generate the query and show you those results. Here's an example output when asked to "Show 10 images with exactly 5 persons" and you'll see a result like this:

-Explorer Dashboard Screenshot 4 +Explorer Dashboard Screenshot 4

Note: This works using LLMs under the hood so the results are probabilistic and might get things wrong sometimes @@ -56,7 +67,7 @@ WHERE labels LIKE '%person%' AND labels LIKE '%dog%' ```

-Explorer Dashboard Screenshot 5 +Explorer Dashboard Screenshot 5

This is a Demo build using the Explorer API. You can use the API to build your own exploratory notebooks or scripts to get insights into your datasets. Learn more about the Explorer API [here](api.md). diff --git a/docs/en/datasets/explorer/index.md b/docs/en/datasets/explorer/index.md index ad331c0bcf9..29f00691570 100644 --- a/docs/en/datasets/explorer/index.md +++ b/docs/en/datasets/explorer/index.md @@ -7,12 +7,23 @@ keywords: Ultralytics Explorer, CV Dataset Tools, Semantic Search, SQL Dataset Q # Ultralytics Explorer

- Ultralytics Explorer Screenshot 1 + Ultralytics Explorer Screenshot 1

Open In Colab Ultralytics Explorer is a tool for exploring CV datasets using semantic search, SQL queries, vector similarity search and even using natural language. It is also a Python API for accessing the same functionality. +

+
+ +
+ Watch: Ultralytics Explorer API | Semantic Search, SQL Queries & Ask AI Features +

+ ### Installation of optional dependencies Explorer depends on external libraries for some of its functionality. These are automatically installed on usage. To manually install these dependencies, use the following command: diff --git a/docs/en/datasets/index.md b/docs/en/datasets/index.md index 788f366336d..7470113ea4f 100644 --- a/docs/en/datasets/index.md +++ b/docs/en/datasets/index.md @@ -8,12 +8,23 @@ keywords: computer vision, datasets, Ultralytics, YOLO, object detection, instan Ultralytics provides support for various datasets to facilitate computer vision tasks such as detection, instance segmentation, pose estimation, classification, and multi-object tracking. Below is a list of the main Ultralytics datasets, followed by a summary of each computer vision task and the respective datasets. +

+
+ +
+ Watch: Ultralytics Datasets Overview +

+ ## NEW 🚀 Ultralytics Explorer Create embeddings for your dataset, search for similar images, run SQL queries, perform semantic search and even search using natural language! You can get started with our GUI app or build your own using the API. Learn more [here](explorer/index.md).

-Ultralytics Explorer Screenshot +Ultralytics Explorer Screenshot

- Try the [GUI Demo](explorer/index.md) @@ -33,6 +44,9 @@ Bounding box object detection is a computer vision technique that involves detec - [VisDrone](detect/visdrone.md): A dataset containing object detection and multi-object tracking data from drone-captured imagery with over 10K images and video sequences. - [VOC](detect/voc.md): The Pascal Visual Object Classes (VOC) dataset for object detection and segmentation with 20 object classes and over 11K images. - [xView](detect/xview.md): A dataset for object detection in overhead imagery with 60 object categories and over 1 million annotated objects. +- [Roboflow 100](detect/roboflow-100.md): A diverse object detection benchmark with 100 datasets spanning seven imagery domains for comprehensive model evaluation. +- [Brain-tumor](detect/brain-tumor.md): A dataset for detecting brain tumors includes MRI or CT scan images with details on tumor presence, location, and characteristics. It's vital for training computer vision models to automate tumor identification, aiding in early diagnosis and treatment planning. +- [African-wildlife](detect/african-wildlife.md): A dataset featuring images of African wildlife, including buffalo, elephant, rhino, and zebra, aids in training computer vision models. Essential for identifying animals in various habitats, it supports wildlife research. ## [Instance Segmentation Datasets](segment/index.md) @@ -40,6 +54,9 @@ Instance segmentation is a computer vision technique that involves identifying a - [COCO](segment/coco.md): A large-scale dataset designed for object detection, segmentation, and captioning tasks with over 200K labeled images. - [COCO8-seg](segment/coco8-seg.md): A smaller dataset for instance segmentation tasks, containing a subset of 8 COCO images with segmentation annotations. +- [Crack-seg](segment/crack-seg.md): Specifically crafted dataset for detecting cracks on roads and walls, applicable for both object detection and segmentation tasks. +- [Package-seg](segment/package-seg.md): Tailored dataset for identifying packages in warehouses or industrial settings, suitable for both object detection and segmentation applications. +- [Carparts-seg](segment/carparts-seg.md): Purpose-built dataset for identifying vehicle parts, catering to design, manufacturing, and research needs. It serves for both object detection and segmentation tasks. ## [Pose Estimation](pose/index.md) diff --git a/docs/en/datasets/obb/dota-v2.md b/docs/en/datasets/obb/dota-v2.md index 42d64f653ae..51502d7837c 100644 --- a/docs/en/datasets/obb/dota-v2.md +++ b/docs/en/datasets/obb/dota-v2.md @@ -68,7 +68,7 @@ Typically, datasets incorporate a YAML (Yet Another Markup Language) file detail ## Split DOTA images -To train DOTA dataset, We split original DOTA images with high-resolution into images with 1024x1024 resolution in multi-scale way. +To train DOTA dataset, we split original DOTA images with high-resolution into images with 1024x1024 resolution in multiscale way. !!! Example "Split images" @@ -81,14 +81,14 @@ To train DOTA dataset, We split original DOTA images with high-resolution into i split_trainval( data_root='path/to/DOTAv1.0/', save_dir='path/to/DOTAv1.0-split/', - rates=[0.5, 1.0, 1.5], # multi-scale + rates=[0.5, 1.0, 1.5], # multiscale gap=500 ) # split test set, without labels. split_test( data_root='path/to/DOTAv1.0/', save_dir='path/to/DOTAv1.0-split/', - rates=[0.5, 1.0, 1.5], # multi-scale + rates=[0.5, 1.0, 1.5], # multiscale gap=500 ) ``` @@ -119,7 +119,7 @@ To train a model on the DOTA v1 dataset, you can utilize the following code snip ```bash # Train a new YOLOv8n-OBB model on the DOTAv2 dataset - yolo detect train data=DOTAv1.yaml model=yolov8n.pt epochs=100 imgsz=640 + yolo obb train data=DOTAv1.yaml model=yolov8n-obb.pt epochs=100 imgsz=640 ``` ## Sample Data and Annotations diff --git a/docs/en/datasets/pose/tiger-pose.md b/docs/en/datasets/pose/tiger-pose.md index 0d6870bcc42..b4c33dd9f0a 100644 --- a/docs/en/datasets/pose/tiger-pose.md +++ b/docs/en/datasets/pose/tiger-pose.md @@ -16,7 +16,7 @@ This dataset is intended for use with [Ultralytics HUB](https://hub.ultralytics.


- +
+ Watch: Distance Calculation using Ultralytics YOLOv8 +

+ +## Visuals + +| Distance Calculation using Ultralytics YOLOv8 | +|:-----------------------------------------------------------------------------------------------------------------------------------------------:| +| ![Ultralytics YOLOv8 Distance Calculation](https://github.com/RizwanMunawar/RizwanMunawar/assets/62513924/6b6b735d-3c49-4b84-a022-2bf6e3c72f8b) | + ## Advantages of Distance Calculation? - **Localization Precision:** Enhances accurate spatial positioning in computer vision tasks. diff --git a/docs/en/guides/heatmaps.md b/docs/en/guides/heatmaps.md index f890e781f78..3b8b91116b4 100644 --- a/docs/en/guides/heatmaps.md +++ b/docs/en/guides/heatmaps.md @@ -12,7 +12,7 @@ A heatmap generated with [Ultralytics YOLOv8](https://github.com/ultralytics/ult


- +
+ Watch: Ultralytics YOLOv8 Guides Overview +

+ ## Guides Here's a compilation of in-depth guides to help you master different aspects of Ultralytics YOLO. @@ -27,6 +38,9 @@ Here's a compilation of in-depth guides to help you master different aspects of - [Triton Inference Server Integration](triton-inference-server.md) 🚀 NEW: Dive into the integration of Ultralytics YOLOv8 with NVIDIA's Triton Inference Server for scalable and efficient deep learning inference deployments. - [YOLO Thread-Safe Inference](yolo-thread-safe-inference.md) 🚀 NEW: Guidelines for performing inference with YOLO models in a thread-safe manner. Learn the importance of thread safety and best practices to prevent race conditions and ensure consistent predictions. - [Isolating Segmentation Objects](isolating-segmentation-objects.md) 🚀 NEW: Step-by-step recipe and explanation on how to extract and/or isolate objects from images using Ultralytics Segmentation. +- [Edge TPU on Raspberry Pi](coral-edge-tpu-on-raspberry-pi.md): [Google Edge TPU](https://coral.ai/products/accelerator) accelerates YOLO inference on [Raspberry Pi](https://www.raspberrypi.com/). +- [View Inference Images in a Terminal](view-results-in-terminal.md): Use VSCode's integrated terminal to view inference results when using Remote Tunnel or SSH sessions. +- [OpenVINO Latency vs Throughput Modes](optimizing-openvino-latency-vs-throughput-modes.md) - Learn latency and throughput optimization techniques for peak YOLO inference performance. ## Real-World Projects @@ -37,7 +51,7 @@ Here's a compilation of in-depth guides to help you master different aspects of - [Objects Counting in Regions](region-counting.md) 🚀 NEW: Explore counting objects in specific regions with Ultralytics YOLOv8 for precise and efficient object detection in varied areas. - [Security Alarm System](security-alarm-system.md) 🚀 NEW: Discover the process of creating a security alarm system with Ultralytics YOLOv8. This system triggers alerts upon detecting new objects in the frame. Subsequently, you can customize the code to align with your specific use case. - [Heatmaps](heatmaps.md) 🚀 NEW: Elevate your understanding of data with our Detection Heatmaps! These intuitive visual tools use vibrant color gradients to vividly illustrate the intensity of data values across a matrix. Essential in computer vision, heatmaps are skillfully designed to highlight areas of interest, providing an immediate, impactful way to interpret spatial information. -- [Instance Segmentation with Object Tracking](instance-segmentation-and-tracking.md) 🚀 NEW: Explore our feature on Object Segmentation in Bounding Boxes Shape, providing a visual representation of precise object boundaries for enhanced understanding and analysis. +- [Instance Segmentation with Object Tracking](instance-segmentation-and-tracking.md) 🚀 NEW: Explore our feature on [Object Segmentation](https://docs.ultralytics.com/tasks/segment/) in Bounding Boxes Shape, providing a visual representation of precise object boundaries for enhanced understanding and analysis. - [VisionEye View Objects Mapping](vision-eye.md) 🚀 NEW: This feature aim computers to discern and focus on specific objects, much like the way the human eye observes details from a particular viewpoint. - [Speed Estimation](speed-estimation.md) 🚀 NEW: Speed estimation in computer vision relies on analyzing object motion through techniques like [object tracking](https://docs.ultralytics.com/modes/track/), crucial for applications like autonomous vehicles and traffic monitoring. - [Distance Calculation](distance-calculation.md) 🚀 NEW: Distance calculation, which involves measuring the separation between two objects within a defined space, is a crucial aspect. In the context of Ultralytics YOLOv8, the method employed for this involves using the bounding box centroid to determine the distance associated with user-highlighted bounding boxes. diff --git a/docs/en/guides/instance-segmentation-and-tracking.md b/docs/en/guides/instance-segmentation-and-tracking.md index 0339ab900d0..558ab57d846 100644 --- a/docs/en/guides/instance-segmentation-and-tracking.md +++ b/docs/en/guides/instance-segmentation-and-tracking.md @@ -1,7 +1,7 @@ --- comments: true description: Instance Segmentation with Object Tracking using Ultralytics YOLOv8 -keywords: Ultralytics, YOLOv8, Instance Segmentation, Object Detection, Object Tracking, Segbbox, Computer Vision, Notebook, IPython Kernel, CLI, Python SDK +keywords: Ultralytics, YOLOv8, Instance Segmentation, Object Detection, Object Tracking, Bounding Box, Computer Vision, Notebook, IPython Kernel, CLI, Python SDK --- # Instance Segmentation and Tracking using Ultralytics YOLOv8 🚀 @@ -16,6 +16,17 @@ There are two types of instance segmentation tracking available in the Ultralyti - **Instance Segmentation with Object Tracks:** Every track is represented by a distinct color, facilitating easy identification and tracking. +

+
+ +
+ Watch: Instance Segmentation with Object Tracking using Ultralytics YOLOv8 +

+ ## Samples | Instance Segmentation | Instance Segmentation + Object Tracking | diff --git a/docs/en/guides/isolating-segmentation-objects.md b/docs/en/guides/isolating-segmentation-objects.md index 79d47692daa..f8e9a7a6543 100644 --- a/docs/en/guides/isolating-segmentation-objects.md +++ b/docs/en/guides/isolating-segmentation-objects.md @@ -14,12 +14,12 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab ## Recipe Walk Through -1. Begin with the necessary imports +1. Begin with the necessary imports - ```py + ```python from pathlib import Path - import cv2 as cv + import cv2 import numpy as np from ultralytics import YOLO ``` @@ -30,19 +30,19 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab *** -2. Load a model and run `predict()` method on a source. +2. Load a model and run `predict()` method on a source. - ```py + ```python from ultralytics import YOLO # Load a model model = YOLO('yolov8n-seg.pt') # Run inference - result = model.predict() + results = model.predict() ``` - ??? question "No Prediction Arguments?" + !!! question "No Prediction Arguments?" Without specifying a source, the example images from the library will be used: @@ -57,7 +57,7 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab *** -3. Now iterate over the results and the contours. For workflows that want to save an image to file, the source image `base-name` and the detection `class-label` are retrieved for later use (optional). +3. Now iterate over the results and the contours. For workflows that want to save an image to file, the source image `base-name` and the detection `class-label` are retrieved for later use (optional). ```{ .py .annotate } # (2) Iterate detection results (helpful for multiple images) @@ -81,7 +81,7 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab *** -4. Start with generating a binary mask from the source image and then draw a filled contour onto the mask. This will allow the object to be isolated from the other parts of the image. An example from `bus.jpg` for one of the detected `person` class objects is shown on the right. +4. Start with generating a binary mask from the source image and then draw a filled contour onto the mask. This will allow the object to be isolated from the other parts of the image. An example from `bus.jpg` for one of the detected `person` class objects is shown on the right. ![Binary Mask Image](https://github.com/ultralytics/ultralytics/assets/62214284/59bce684-fdda-4b17-8104-0b4b51149aca){ width="240", align="right" } @@ -98,11 +98,11 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab # Draw contour onto mask - _ = cv.drawContours(b_mask, + _ = cv2.drawContours(b_mask, [contour], -1, (255, 255, 255), - cv.FILLED) + cv2.FILLED) ``` @@ -136,7 +136,7 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab - The `tuple` `(255, 255, 255)` represents the color white, which is the desired color for drawing the contour in this binary mask. - - The addition of `cv.FILLED` will color all pixels enclosed by the contour boundary the same, in this case, all enclosed pixels will be white. + - The addition of `cv2.FILLED` will color all pixels enclosed by the contour boundary the same, in this case, all enclosed pixels will be white. - See [OpenCV Documentation on `drawContours()`](https://docs.opencv.org/4.8.0/d6/d6e/group__imgproc__draw.html#ga746c0625f1781f1ffc9056259103edbc) for more information. @@ -145,7 +145,7 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab *** -5. Next the there are 2 options for how to move forward with the image from this point and a subsequent option for each. +5. Next the there are 2 options for how to move forward with the image from this point and a subsequent option for each. ### Object Isolation Options @@ -155,10 +155,10 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab ```py # Create 3-channel mask - mask3ch = cv.cvtColor(b_mask, cv.COLOR_GRAY2BGR) + mask3ch = cv2.cvtColor(b_mask, cv2.COLOR_GRAY2BGR) # Isolate object with binary mask - isolated = cv.bitwise_and(mask3ch, img) + isolated = cv2.bitwise_and(mask3ch, img) ``` @@ -258,7 +258,7 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab *** -6. What to do next is entirely left to you as the developer. A basic example of one possible next step (saving the image to file for future use) is shown. +6. What to do next is entirely left to you as the developer. A basic example of one possible next step (saving the image to file for future use) is shown. - **NOTE:** this step is optional and can be skipped if not required for your specific use case. @@ -266,7 +266,7 @@ After performing the [Segment Task](../tasks/segment.md), it's sometimes desirab ```py # Save isolated object to file - _ = cv.imwrite(f'{img_name}_{label}-{ci}.png', iso_crop) + _ = cv2.imwrite(f'{img_name}_{label}-{ci}.png', iso_crop) ``` - In this example, the `img_name` is the base-name of the source image file, `label` is the detected class-name, and `ci` is the index of the object detection (in case of multiple instances with the same class name). @@ -278,7 +278,7 @@ Here, all steps from the previous section are combined into a single block of co ```{ .py .annotate } from pathlib import Path -import cv2 as cv +import cv2 import numpy as np from ultralytics import YOLO @@ -298,13 +298,13 @@ for r in res: # Create contour mask (1) contour = c.masks.xy.pop().astype(np.int32).reshape(-1, 1, 2) - _ = cv.drawContours(b_mask, [contour], -1, (255, 255, 255), cv.FILLED) + _ = cv2.drawContours(b_mask, [contour], -1, (255, 255, 255), cv2.FILLED) # Choose one: # OPTION-1: Isolate object with black background - mask3ch = cv.cvtColor(b_mask, cv.COLOR_GRAY2BGR) - isolated = cv.bitwise_and(mask3ch, img) + mask3ch = cv2.cvtColor(b_mask, cv2.COLOR_GRAY2BGR) + isolated = cv2.bitwise_and(mask3ch, img) # OPTION-2: Isolate object with transparent background (when saved as PNG) isolated = np.dstack([img, b_mask]) diff --git a/docs/en/guides/model-deployment-options.md b/docs/en/guides/model-deployment-options.md index d0d7b325592..a487ea4d94a 100644 --- a/docs/en/guides/model-deployment-options.md +++ b/docs/en/guides/model-deployment-options.md @@ -240,9 +240,9 @@ PaddlePaddle is an open-source deep learning framework developed by Baidu. It is - **Hardware Acceleration**: Supports various hardware accelerations, including Baidu's own Kunlun chips. -#### ncnn +#### NCNN -ncnn is a high-performance neural network inference framework optimized for the mobile platform. It stands out for its lightweight nature and efficiency, making it particularly well-suited for mobile and embedded devices where resources are limited. +NCNN is a high-performance neural network inference framework optimized for the mobile platform. It stands out for its lightweight nature and efficiency, making it particularly well-suited for mobile and embedded devices where resources are limited. - **Performance Benchmarks**: Highly optimized for mobile platforms, offering efficient inference on ARM-based devices. @@ -276,7 +276,7 @@ The following table provides a snapshot of the various deployment options availa | TF Edge TPU | Optimized for Google's Edge TPU hardware | Exclusive to Edge TPU devices | Growing with Google and third-party resources | IoT devices requiring real-time processing | Improvements for new Edge TPU hardware | Google's robust IoT security | Custom-designed for Google Coral | | TF.js | Reasonable in-browser performance | High with web technologies | Web and Node.js developers support | Interactive web applications | TensorFlow team and community contributions | Web platform security model | Enhanced with WebGL and other APIs | | PaddlePaddle | Competitive, easy to use and scalable | Baidu ecosystem, wide application support | Rapidly growing, especially in China | Chinese market and language processing | Focus on Chinese AI applications | Emphasizes data privacy and security | Including Baidu's Kunlun chips | -| ncnn | Optimized for mobile ARM-based devices | Mobile and embedded ARM systems | Niche but active mobile/embedded ML community | Android and ARM systems efficiency | High performance maintenance on ARM | On-device security advantages | ARM CPUs and GPUs optimizations | +| NCNN | Optimized for mobile ARM-based devices | Mobile and embedded ARM systems | Niche but active mobile/embedded ML community | Android and ARM systems efficiency | High performance maintenance on ARM | On-device security advantages | ARM CPUs and GPUs optimizations | This comparative analysis gives you a high-level overview. For deployment, it's essential to consider the specific requirements and constraints of your project, and consult the detailed documentation and resources available for each option. diff --git a/docs/en/guides/object-counting.md b/docs/en/guides/object-counting.md index bd887fd4f45..0c3ce72a3d4 100644 --- a/docs/en/guides/object-counting.md +++ b/docs/en/guides/object-counting.md @@ -12,7 +12,7 @@ Object counting with [Ultralytics YOLOv8](https://github.com/ultralytics/ultraly


- +
+ Watch: Speed Estimation using Ultralytics YOLOv8 +

+ ## Advantages of Speed Estimation? - **Efficient Traffic Control:** Accurate speed estimation aids in managing traffic flow, enhancing safety, and reducing congestion on roadways. diff --git a/docs/en/guides/triton-inference-server.md b/docs/en/guides/triton-inference-server.md index f9baaaecf8b..6f3b1d2424a 100644 --- a/docs/en/guides/triton-inference-server.md +++ b/docs/en/guides/triton-inference-server.md @@ -10,7 +10,7 @@ The [Triton Inference Server](https://developer.nvidia.com/nvidia-triton-inferen


- +
+ Watch: Ultralytics YOLOv8 Performance Metrics | MAP, F1 Score, Precision, IoU & Accuracy +

+ ## Object Detection Metrics Let’s start by discussing some metrics that are not only important to YOLOv8 but are broadly applicable across different object detection models. diff --git a/docs/en/help/CI.md b/docs/en/help/CI.md index b01549c6d6c..033cf717f3b 100644 --- a/docs/en/help/CI.md +++ b/docs/en/help/CI.md @@ -12,11 +12,11 @@ Continuous Integration (CI) is an essential aspect of software development which Here's a brief description of our CI actions: -- **CI:** This is our primary CI test that involves running unit tests, linting checks, and sometimes more comprehensive tests depending on the repository. -- **Docker Deployment:** This test checks the deployment of the project using Docker to ensure the Dockerfile and related scripts are working correctly. -- **Broken Links:** This test scans the codebase for any broken or dead links in our markdown or HTML files. -- **CodeQL:** CodeQL is a tool from GitHub that performs semantic analysis on our code, helping to find potential security vulnerabilities and maintain high-quality code. -- **PyPi Publishing:** This test checks if the project can be packaged and published to PyPi without any errors. +- **[CI](https://github.com/ultralytics/ultralytics/actions/workflows/ci.yaml):** This is our primary CI test that involves running unit tests, linting checks, and sometimes more comprehensive tests depending on the repository. +- **[Docker Deployment](https://github.com/ultralytics/ultralytics/actions/workflows/docker.yaml):** This test checks the deployment of the project using Docker to ensure the Dockerfile and related scripts are working correctly. +- **[Broken Links](https://github.com/ultralytics/ultralytics/actions/workflows/links.yml):** This test scans the codebase for any broken or dead links in our markdown or HTML files. +- **[CodeQL](https://github.com/ultralytics/ultralytics/actions/workflows/codeql.yaml):** CodeQL is a tool from GitHub that performs semantic analysis on our code, helping to find potential security vulnerabilities and maintain high-quality code. +- **[PyPi Publishing](https://github.com/ultralytics/ultralytics/actions/workflows/publish.yml):** This test checks if the project can be packaged and published to PyPi without any errors. ### CI Results @@ -28,7 +28,7 @@ Below is the table showing the status of these CI tests for our main repositorie | [yolov5](https://github.com/ultralytics/yolov5) | [![YOLOv5 CI](https://github.com/ultralytics/yolov5/actions/workflows/ci-testing.yml/badge.svg)](https://github.com/ultralytics/yolov5/actions/workflows/ci-testing.yml) | [![Publish Docker Images](https://github.com/ultralytics/yolov5/actions/workflows/docker.yml/badge.svg)](https://github.com/ultralytics/yolov5/actions/workflows/docker.yml) | [![Check Broken links](https://github.com/ultralytics/yolov5/actions/workflows/links.yml/badge.svg)](https://github.com/ultralytics/yolov5/actions/workflows/links.yml) | [![CodeQL](https://github.com/ultralytics/yolov5/actions/workflows/codeql-analysis.yml/badge.svg)](https://github.com/ultralytics/yolov5/actions/workflows/codeql-analysis.yml) | | | [ultralytics](https://github.com/ultralytics/ultralytics) | [![ultralytics CI](https://github.com/ultralytics/ultralytics/actions/workflows/ci.yaml/badge.svg)](https://github.com/ultralytics/ultralytics/actions/workflows/ci.yaml) | [![Publish Docker Images](https://github.com/ultralytics/ultralytics/actions/workflows/docker.yaml/badge.svg)](https://github.com/ultralytics/ultralytics/actions/workflows/docker.yaml) | [![Check Broken links](https://github.com/ultralytics/ultralytics/actions/workflows/links.yml/badge.svg)](https://github.com/ultralytics/ultralytics/actions/workflows/links.yml) | [![CodeQL](https://github.com/ultralytics/ultralytics/actions/workflows/codeql.yaml/badge.svg)](https://github.com/ultralytics/ultralytics/actions/workflows/codeql.yaml) | [![Publish to PyPI and Deploy Docs](https://github.com/ultralytics/ultralytics/actions/workflows/publish.yml/badge.svg)](https://github.com/ultralytics/ultralytics/actions/workflows/publish.yml) | | [hub](https://github.com/ultralytics/hub) | [![HUB CI](https://github.com/ultralytics/hub/actions/workflows/ci.yaml/badge.svg)](https://github.com/ultralytics/hub/actions/workflows/ci.yaml) | | [![Check Broken links](https://github.com/ultralytics/hub/actions/workflows/links.yml/badge.svg)](https://github.com/ultralytics/hub/actions/workflows/links.yml) | | | -| [docs](https://github.com/ultralytics/docs) | | | [![Check Broken links](https://github.com/ultralytics/docs/actions/workflows/links.yml/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/links.yml) | | [![pages-build-deployment](https://github.com/ultralytics/docs/actions/workflows/pages/pages-build-deployment/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/pages/pages-build-deployment) | +| [docs](https://github.com/ultralytics/docs) | | | [![Check Broken links](https://github.com/ultralytics/docs/actions/workflows/links.yml/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/links.yml)[![Check Domains](https://github.com/ultralytics/docs/actions/workflows/check_domains.yml/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/check_domains.yml) | | [![pages-build-deployment](https://github.com/ultralytics/docs/actions/workflows/pages/pages-build-deployment/badge.svg)](https://github.com/ultralytics/docs/actions/workflows/pages/pages-build-deployment) | Each badge shows the status of the last run of the corresponding CI test on the `main` branch of the respective repository. If a test fails, the badge will display a "failing" status, and if it passes, it will display a "passing" status. diff --git a/docs/en/help/contributing.md b/docs/en/help/contributing.md index 8f6ae10a406..7874d48b445 100644 --- a/docs/en/help/contributing.md +++ b/docs/en/help/contributing.md @@ -27,17 +27,17 @@ All contributors are expected to adhere to the [Code of Conduct](code_of_conduct We welcome contributions in the form of pull requests. To make the review process smoother, please follow these guidelines: -1. **Fork the repository**: Fork the Ultralytics YOLO repository to your own GitHub account. +1. **[Fork the repository](https://docs.github.com/en/pull-requests/collaborating-with-pull-requests/working-with-forks/fork-a-repo)**: Fork the Ultralytics YOLO repository to your own GitHub account. -2. **Create a branch**: Create a new branch in your forked repository with a descriptive name for your changes. +2. **[Create a branch](https://docs.github.com/en/desktop/making-changes-in-a-branch/managing-branches-in-github-desktop)**: Create a new branch in your forked repository with a descriptive name for your changes. 3. **Make your changes**: Make the changes you want to contribute. Ensure that your changes follow the coding style of the project and do not introduce new errors or warnings. -4. **Test your changes**: Test your changes locally to ensure that they work as expected and do not introduce new issues. +4. **[Test your changes](https://github.com/ultralytics/ultralytics/tree/main/tests)**: Test your changes locally to ensure that they work as expected and do not introduce new issues. -5. **Commit your changes**: Commit your changes with a descriptive commit message. Make sure to include any relevant issue numbers in your commit message. +5. **[Commit your changes](https://docs.github.com/en/desktop/making-changes-in-a-branch/committing-and-reviewing-changes-to-your-project-in-github-desktop)**: Commit your changes with a descriptive commit message. Make sure to include any relevant issue numbers in your commit message. -6. **Create a pull request**: Create a pull request from your forked repository to the main Ultralytics YOLO repository. In the pull request description, provide a clear explanation of your changes and how they improve the project. +6. **[Create a pull request](https://docs.github.com/en/pull-requests/collaborating-with-pull-requests/proposing-changes-to-your-work-with-pull-requests/creating-a-pull-request)**: Create a pull request from your forked repository to the main Ultralytics YOLO repository. In the pull request description, provide a clear explanation of your changes and how they improve the project. ### CLA Signing @@ -120,12 +120,12 @@ We appreciate bug reports as they play a crucial role in maintaining the project ## License -Ultralytics embraces the GNU Affero General Public License v3.0 (AGPL-3.0) for its repositories, promoting openness, transparency, and collaborative enhancement in software development. This strong copyleft license ensures that all users and developers retain the freedom to use, modify, and share the software. It fosters community collaboration, ensuring that any improvements remain accessible to all. +Ultralytics embraces the [GNU Affero General Public License v3.0 (AGPL-3.0)](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) for its repositories, promoting openness, transparency, and collaborative enhancement in software development. This strong copyleft license ensures that all users and developers retain the freedom to use, modify, and share the software. It fosters community collaboration, ensuring that any improvements remain accessible to all. Users and developers are encouraged to familiarize themselves with the terms of AGPL-3.0 to contribute effectively and ethically to the Ultralytics open-source community. ## Conclusion -Thank you for your interest in contributing to Ultralytics' open-source YOLO projects. Your participation is crucial in shaping the future of our software and fostering a community of innovation and collaboration. Whether you're improving code, reporting bugs, or suggesting features, your contributions make a significant impact. +Thank you for your interest in contributing to [Ultralytics open-source](https://github.com/ultralytics) YOLO projects. Your participation is crucial in shaping the future of our software and fostering a community of innovation and collaboration. Whether you're improving code, reporting bugs, or suggesting features, your contributions make a significant impact. We're eager to see your ideas in action and appreciate your commitment to advancing object detection technology. Let's continue to grow and innovate together in this exciting open-source journey. Happy coding! 🚀🌟 diff --git a/docs/en/hub/app/android.md b/docs/en/hub/app/android.md index 0bff31c1829..7a80474351f 100644 --- a/docs/en/hub/app/android.md +++ b/docs/en/hub/app/android.md @@ -31,6 +31,17 @@ keywords: Ultralytics, Android App, real-time object detection, YOLO models, Ten The Ultralytics Android App is a powerful tool that allows you to run YOLO models directly on your Android device for real-time object detection. This app utilizes TensorFlow Lite for model optimization and various hardware delegates for acceleration, enabling fast and efficient object detection. +

+
+ +
+ Watch: Getting Started with the Ultralytics HUB App (IOS & Android) +

+ ## Quantization and Acceleration To achieve real-time performance on your Android device, YOLO models are quantized to either FP16 or INT8 precision. Quantization is a process that reduces the numerical precision of the model's weights and biases, thus reducing the model's size and the amount of computation required. This results in faster inference times without significantly affecting the model's accuracy. diff --git a/docs/en/hub/app/ios.md b/docs/en/hub/app/ios.md index ac939c901cc..41e4b634aa1 100644 --- a/docs/en/hub/app/ios.md +++ b/docs/en/hub/app/ios.md @@ -31,6 +31,17 @@ keywords: Ultralytics, iOS app, object detection, YOLO models, real time, Apple The Ultralytics iOS App is a powerful tool that allows you to run YOLO models directly on your iPhone or iPad for real-time object detection. This app utilizes the Apple Neural Engine and Core ML for model optimization and acceleration, enabling fast and efficient object detection. +

+
+ +
+ Watch: Getting Started with the Ultralytics HUB App (IOS & Android) +

+ ## Quantization and Acceleration To achieve real-time performance on your iOS device, YOLO models are quantized to either FP16 or INT8 precision. Quantization is a process that reduces the numerical precision of the model's weights and biases, thus reducing the model's size and the amount of computation required. This results in faster inference times without significantly affecting the model's accuracy. diff --git a/docs/en/hub/cloud-training.md b/docs/en/hub/cloud-training.md new file mode 100644 index 00000000000..f774475a5c0 --- /dev/null +++ b/docs/en/hub/cloud-training.md @@ -0,0 +1,89 @@ +--- +comments: true +description: Learn how to use Ultralytics HUB for efficient and user-friendly AI model training in the cloud. Follow our detailed guide for easy model creation, training, evaluation, and deployment. +keywords: Ultralytics, HUB Models, AI model training, model creation, model training, model evaluation, model deployment +--- + +# Cloud Training + +[Ultralytics HUB](https://hub.ultralytics.com/) provides a powerful and user-friendly cloud platform to train custom object detection models. Easily select your dataset and the desired training method, then kick off the process with just a few clicks. Ultralytics HUB offers pre-built options and various model architectures to streamline your workflow. + +![cloud training cover](https://github.com/ultralytics/ultralytics/assets/19519529/cbfdb3b8-ad35-44a6-afe6-61ec0b8e8b8d) + +Read more about creating and other details of a Model at our [HUB Models page](models.md) + +

+
+ +
+ Watch: New Feature 🌟 Introducing Ultralytics HUB Cloud Training +

+ +## Selecting an Instance + +For details on picking a model and instances for it, please read our [Instances guide Page](models.md) + +## Steps to Train the Model + +Once the instance has been selected, training a model using Ultralytics HUB is a three-step process, as below: + +1. Picking a Dataset - Read more about datasets, steps to add/remove datasets from the [Dataset page](datasets.md) +2. Picking a Model - Read more about models, steps to create/share and handle a model on the [HUB Models page](models.md) +3. Training the Model on the Chosen Dataset + +Ultralytics HUB offers three training options: + +- **Ultralytics Cloud** - Explained in this page. +- **Google Colab** - Train on Google's popular Colab notebooks. +- **Bring your own agent** - Train models locally on your own hardware or on-premise GPU servers. + +In order to start training your model, follow the instructions presented in these steps. + +## Training via Ultralytics Cloud + +To start training your model using Ultralytics Cloud, simply select the Training Duration, Available Instances, and Payment options. + +**Training Duration** - Ultralytics offers two kinds of training durations: + +1. Training based on `Epochs`: This option allows you to train your model based on the number of times your dataset needs to go through the cycle of train, label, and test. The exact pricing based on the number of epochs is hard to determine. Hence, if the credit gets exhausted before the intended number of epochs, the training pauses, and you get a prompt to top-up and resume training. +2. Timed Training: The timed training feature allows you to fix the time duration of the entire training process and also determines the estimated amount before the start of training. + +![Ultralytics cloud screenshot of training duration options](https://github.com/ultralytics/ultralytics/assets/19519529/47b96f3f-a9ea-441a-b065-cba97edc333f) + +When the training starts, you can click **Done** and monitor the training progress on the Model page. + +## Monitor Your Training + +Once the model and mode of training have been selected, you can monitor the training procedure on the `Train` section with the link provided in the terminal (on your agent/Google Colab) or a button from Ultralytics Cloud. + +![Monitor your Training](https://github.com/ultralytics/ultralytics/assets/19519529/316f8301-0d60-465e-8c99-aa3daf66433c) + +## Stopping and Resuming Your Training + +Once the training has started, you can `Stop` the training, which will also correspondingly pause the credit usage. You can then `Resume` the training from the point where it stopped. + +![Pausing and Resuming Training](https://github.com/ultralytics/ultralytics/assets/19519529/b2707a93-fa5c-4ee2-8443-6be9e1c2857d) + +## Payments and Billing Options + +Ultralytics HUB offers `Pay Now` as upfront and/or using `Ultralytics HUB Account` as a wallet to top up and fulfill the billing. You can choose from two types of accounts: `Free` and `Pro` user. + +To access your profile, click on the profile picture in the bottom left corner. + +![Clicking profile picture](https://github.com/ultralytics/ultralytics/assets/19519529/53e5410e-06f5-4b40-b29d-ef00b5779163) + +Click on the Billing tab to view your current plan and options to upgrade it. + +![Clicking Upgrade button](https://github.com/ultralytics/ultralytics/assets/19519529/361b43c7-a9d4-4d05-b80b-dc1fa8bce829) + +You will be prompted with different available plans, and you can pick from the available plans as shown below. + +![Picking a plan](https://github.com/ultralytics/ultralytics/assets/19519529/4326b01c-0d7d-4850-ac4f-ced2de3339ee) + +Navigate to the Payment page, fill in the details, and complete the payment. + +![Payment Page](https://github.com/ultralytics/ultralytics/assets/19519529/5deebabe-1d8a-485a-b290-e038729c849f) diff --git a/docs/en/hub/datasets.md b/docs/en/hub/datasets.md index 1ab7c45fc11..aadc59d95bf 100644 --- a/docs/en/hub/datasets.md +++ b/docs/en/hub/datasets.md @@ -10,6 +10,17 @@ keywords: Ultralytics, HUB datasets, YOLO model training, upload datasets, datas Once uploaded, datasets can be immediately utilized for model training. This integrated approach facilitates a seamless transition from dataset management to model training, significantly simplifying the entire process. +

+
+ +
+ Watch: Watch: Upload Datasets to Ultralytics HUB | Complete Walkthrough of Dataset Upload Feature +

+ ## Upload Dataset Ultralytics HUB datasets are just like YOLOv5 and YOLOv8 🚀 datasets. They use the same structure and the same label formats to keep everything simple. @@ -46,17 +57,11 @@ check_dataset('path/to/coco8.zip') Once your dataset ZIP is ready, navigate to the [Datasets](https://hub.ultralytics.com/datasets) page by clicking on the **Datasets** button in the sidebar. -![Ultralytics HUB screenshot of the Home page with an arrow pointing to the Datasets button in the sidebar](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_2.jpg) - -??? tip "Tip" - - You can also upload a dataset directly from the [Home](https://hub.ultralytics.com/home) page. - - ![Ultralytics HUB screenshot of the Home page with an arrow pointing to the Upload Dataset card](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_3.jpg) +![Ultralytics HUB screenshot of the Home page with an arrow pointing to the Datasets button in the sidebar](https://github.com/ultralytics/ultralytics/assets/19519529/2d9f774c-100d-4ff4-a82b-2a38ced33c21) Click on the **Upload Dataset** button on the top right of the page. This action will trigger the **Upload Dataset** dialog. -![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Upload Dataset button](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_4.jpg) +![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Upload Dataset button](https://github.com/ultralytics/ultralytics/assets/19519529/52ac10f5-ce42-483a-ac02-1d37d2cba3de) Upload your dataset in the _Dataset .zip file_ field. @@ -64,31 +69,31 @@ You have the additional option to set a custom name and description for your Ult When you're happy with your dataset configuration, click **Upload**. -![Ultralytics HUB screenshot of the Upload Dataset dialog with an arrow pointing to the Upload button](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_5.jpg) +![Ultralytics HUB screenshot of the Upload Dataset dialog with an arrow pointing to the Upload button](https://github.com/ultralytics/ultralytics/assets/19519529/7d210ff6-bdb2-4535-a661-0470274bd7d6) After your dataset is uploaded and processed, you will be able to access it from the Datasets page. -![Ultralytics HUB screenshot of the Datasets page with an arrow pointing to one of the datasets](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_6.jpg) +![Ultralytics HUB screenshot of the Datasets page with an arrow pointing to one of the datasets](https://github.com/ultralytics/ultralytics/assets/19519529/a05d9b66-f8ba-4474-b8ac-ebe0dd143831) You can view the images in your dataset grouped by splits (Train, Validation, Test). -![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Images tab](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_7.jpg) +![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Images tab](https://github.com/ultralytics/ultralytics/assets/19519529/e07468e3-6284-4334-9783-84bfb11130f8) -??? tip "Tip" +!!! tip "Tip" Each image can be enlarged for better visualization. - ![Ultralytics HUB screenshot of the Images tab inside the Dataset page with an arrow pointing to the expand icon](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_8.jpg) + ![Ultralytics HUB screenshot of the Images tab inside the Dataset page with an arrow pointing to the expand icon](https://github.com/ultralytics/ultralytics/assets/19519529/26f411a0-5153-4805-a8c1-cbd379708e28) - ![Ultralytics HUB screenshot of the Images tab inside the Dataset page with one of the images expanded](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_9.jpg) + ![Ultralytics HUB screenshot of the Images tab inside the Dataset page with one of the images expanded](https://github.com/ultralytics/ultralytics/assets/19519529/7d5e0d50-85e5-4014-9f5b-464284e5b291) Also, you can analyze your dataset by click on the **Overview** tab. -![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Overview tab](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_10.jpg) +![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Overview tab](https://github.com/ultralytics/ultralytics/assets/19519529/5eaacd5d-fedf-4332-9091-1418c9f333cb) Next, [train a model](https://docs.ultralytics.com/hub/models/#train-model) on your dataset. -![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Train Model button](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_upload_dataset_11.jpg) +![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Train Model button](https://github.com/ultralytics/ultralytics/assets/19519529/cb709e5f-a10b-478f-a81d-a48f61c193fe) ## Share Dataset @@ -96,7 +101,7 @@ Next, [train a model](https://docs.ultralytics.com/hub/models/#train-model) on y Ultralytics HUB's sharing functionality provides a convenient way to share datasets with others. This feature is designed to accommodate both existing Ultralytics HUB users and those who have yet to create an account. -??? note "Note" +!!! note "Note" You have control over the general access of your datasets. @@ -104,9 +109,9 @@ Next, [train a model](https://docs.ultralytics.com/hub/models/#train-model) on y Navigate to the Dataset page of the dataset you want to share, open the dataset actions dropdown and click on the **Share** option. This action will trigger the **Share Dataset** dialog. -![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Share option](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_share_dataset_1.jpg) +![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Share option](https://github.com/ultralytics/ultralytics/assets/19519529/9a0e61e7-2838-42b3-8abe-a22980e6c680) -??? tip "Tip" +!!! tip "Tip" You can also share a dataset directly from the [Datasets](https://hub.ultralytics.com/datasets) page. @@ -114,46 +119,28 @@ Navigate to the Dataset page of the dataset you want to share, open the dataset Set the general access to "Unlisted" and click **Save**. -![Ultralytics HUB screenshot of the Share Dataset dialog with an arrow pointing to the dropdown and one to the Save button](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_share_dataset_3.jpg) +![Ultralytics HUB screenshot of the Share Dataset dialog with an arrow pointing to the dropdown and one to the Save button](https://github.com/ultralytics/ultralytics/assets/19519529/5818b928-19a3-48a8-892d-27ac1dc684dd) Now, anyone who has the direct link to your dataset can view it. -??? tip "Tip" +!!! tip "Tip" You can easily click on the dataset's link shown in the **Share Dataset** dialog to copy it. - ![Ultralytics HUB screenshot of the Share Dataset dialog with an arrow pointing to the dataset's link](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_share_dataset_4.jpg) + ![Ultralytics HUB screenshot of the Share Dataset dialog with an arrow pointing to the dataset's link](https://github.com/ultralytics/ultralytics/assets/19519529/8ede7d20-2a68-411d-9de5-3175b5ba7038) -## Edit Dataset +## Edit / Delete Dataset Navigate to the Dataset page of the dataset you want to edit, open the dataset actions dropdown and click on the **Edit** option. This action will trigger the **Update Dataset** dialog. -![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Edit option](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_edit_dataset_1.jpg) - -??? tip "Tip" - - You can also edit a dataset directly from the [Datasets](https://hub.ultralytics.com/datasets) page. - - ![Ultralytics HUB screenshot of the Datasets page with an arrow pointing to the Edit option of one of the datasets](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_edit_dataset_2.jpg) +![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Edit and Delete option](https://github.com/ultralytics/ultralytics/assets/19519529/6c248c8c-29cd-4bd5-b33d-43e90aa1d000) Apply the desired modifications to your dataset and then confirm the changes by clicking **Save**. -![Ultralytics HUB screenshot of the Update Dataset dialog with an arrow pointing to the Save button](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_edit_dataset_3.jpg) - -## Delete Dataset - Navigate to the Dataset page of the dataset you want to delete, open the dataset actions dropdown and click on the **Delete** option. This action will delete the dataset. -![Ultralytics HUB screenshot of the Dataset page with an arrow pointing to the Delete option](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_delete_dataset_1.jpg) - -??? tip "Tip" - - You can also delete a dataset directly from the [Datasets](https://hub.ultralytics.com/datasets) page. - - ![Ultralytics HUB screenshot of the Datasets page with an arrow pointing to the Delete option of one of the datasets](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_delete_dataset_2.jpg) - -??? note "Note" +!!! note "Note" If you change your mind, you can restore the dataset from the [Trash](https://hub.ultralytics.com/trash) page. - ![Ultralytics HUB screenshot of the Trash page with an arrow pointing to the Restore option of one of the datasets](https://github.com/raw/ultralytics/assets/main/docs/hub/datasets/hub_delete_dataset_3.jpg) + ![Ultralytics HUB screenshot of the Trash page with an arrow pointing to the Restore option of one of the datasets](https://github.com/ultralytics/ultralytics/assets/19519529/56a9460c-0e06-4659-989d-715211b9d7ce) diff --git a/docs/en/hub/index.md b/docs/en/hub/index.md index 3637946c0b0..4b402406845 100644 --- a/docs/en/hub/index.md +++ b/docs/en/hub/index.md @@ -39,7 +39,7 @@ HUB is designed to be user-friendly and intuitive, with a drag-and-drop interfac


- +
+ Watch: Ultralytics HUB Inference API Walkthrough +

## API URL diff --git a/docs/en/hub/integrations.md b/docs/en/hub/integrations.md index d8470cfccf6..a69da48c0ff 100644 --- a/docs/en/hub/integrations.md +++ b/docs/en/hub/integrations.md @@ -12,7 +12,7 @@ Welcome to the Integrations guide for [Ultralytics HUB](https://hub.ultralytics.


- +
+ Watch: Ultralytics YOLOv8 Deployment and Integrations +

+ ## Datasets Integrations - [Roboflow](roboflow.md): Facilitate seamless dataset management for Ultralytics models, offering robust annotation, preprocessing, and augmentation capabilities. @@ -40,10 +51,30 @@ Welcome to the Ultralytics Integrations page! This page provides an overview of - [Neural Magic](neural-magic.md): Leverage Quantization Aware Training (QAT) and pruning techniques to optimize Ultralytics models for superior performance and leaner size. -- [OpenVINO](openvino.md): Intel's toolkit for optimizing and deploying computer vision models efficiently across various Intel CPU and GPU platforms. +- [Gradio](gradio.md) 🚀 NEW: Deploy Ultralytics models with Gradio for real-time, interactive object detection demos. + +- [TorchScript](torchscript.md): Developed as part of the [PyTorch](https://pytorch.org/) framework, TorchScript enables efficient execution and deployment of machine learning models in various production environments without the need for Python dependencies. - [ONNX](onnx.md): An open-source format created by [Microsoft](https://www.microsoft.com) for facilitating the transfer of AI models between various frameworks, enhancing the versatility and deployment flexibility of Ultralytics models. +- [OpenVINO](openvino.md): Intel's toolkit for optimizing and deploying computer vision models efficiently across various Intel CPU and GPU platforms. + +- [TensorRT](tensorrt.md): Developed by [NVIDIA](https://www.nvidia.com/), this high-performance deep learning inference framework and model format optimizes AI models for accelerated speed and efficiency on NVIDIA GPUs, ensuring streamlined deployment. + +- [CoreML](coreml.md): CoreML, developed by [Apple](https://www.apple.com/), is a framework designed for efficiently integrating machine learning models into applications across iOS, macOS, watchOS, and tvOS, using Apple's hardware for effective and secure model deployment. + +- [TF SavedModel](tf-savedmodel.md): Developed by [Google](https://www.google.com), TF SavedModel is a universal serialization format for TensorFlow models, enabling easy sharing and deployment across a wide range of platforms, from servers to edge devices. + +- [TF GraphDef](tf-graphdef.md): Developed by [Google](https://www.google.com), GraphDef is TensorFlow's format for representing computation graphs, enabling optimized execution of machine learning models across diverse hardware. + +- [TFLite](tflite.md): Developed by [Google](https://www.google.com), TFLite is a lightweight framework for deploying machine learning models on mobile and edge devices, ensuring fast, efficient inference with minimal memory footprint. + +- [TFLite Edge TPU](edge-tpu.md): Developed by [Google](https://www.google.com) for optimizing TensorFlow Lite models on Edge TPUs, this model format ensures high-speed, efficient edge computing. + +- [PaddlePaddle](paddlepaddle.md): An open-source deep learning platform by [Baidu](https://www.baidu.com/), PaddlePaddle enables the efficient deployment of AI models and focuses on the scalability of industrial applications. + +- [NCNN](ncnn.md): Developed by [Tencent](http://www.tencent.com/), NCNN is an efficient neural network inference framework tailored for mobile devices. It enables direct deployment of AI models into apps, optimizing performance across various mobile platforms. + ### Export Formats We also support a variety of model export formats for deployment in different environments. Here are the available formats: diff --git a/docs/en/integrations/ncnn.md b/docs/en/integrations/ncnn.md new file mode 100644 index 00000000000..835f8fcd945 --- /dev/null +++ b/docs/en/integrations/ncnn.md @@ -0,0 +1,120 @@ +--- +comments: true +description: Uncover how to improve your Ultralytics YOLOv8 model's performance using the NCNN export format that is suitable for devices with limited computation resources. +keywords: Ultralytics, YOLOv8, NCNN Export, Export YOLOv8, Model Deployment +--- + +# How to Export to NCNN from YOLOv8 for Smooth Deployment + +Deploying computer vision models on devices with limited computational power, such as mobile or embedded systems, can be tricky. You need to make sure you use a format optimized for optimal performance. This makes sure that even devices with limited processing power can handle advanced computer vision tasks well. + +The export to NCNN format feature allows you to optimize your [Ultralytics YOLOv8](https://github.com/ultralytics/ultralytics) models for lightweight device-based applications. In this guide, we'll walk you through how to convert your models to the NCNN format, making it easier for your models to perform well on various mobile and embedded devices. + +## Why should you export to NCNN? + +

+ NCNN overview +

+ +The [NCNN](https://github.com/Tencent/ncnn) framework, developed by Tencent, is a high-performance neural network inference computing framework optimized specifically for mobile platforms, including mobile phones, embedded devices, and IoT devices. NCNN is compatible with a wide range of platforms, including Linux, Android, iOS, and macOS. + +NCNN is known for its fast processing speed on mobile CPUs and enables rapid deployment of deep learning models to mobile platforms. This makes it easier to build smart apps, putting the power of AI right at your fingertips. + +## Key Features of NCNN Models + +NCNN models offer a wide range of key features that enable on-device machine learning by helping developers run their models on mobile, embedded, and edge devices: + +- **Efficient and High-Performance**: NCNN models are made to be efficient and lightweight, optimized for running on mobile and embedded devices like Raspberry Pi with limited resources. They can also achieve high performance with high accuracy on various computer vision-based tasks. + +- **Quantization**: NCNN models often support quantization which is a technique that reduces the precision of the model's weights and activations. This leads to further improvements in performance and reduces memory footprint. + +- **Compatibility**: NCNN models are compatible with popular deep learning frameworks like [TensorFlow](https://www.tensorflow.org/), [Caffe](https://caffe.berkeleyvision.org/), and [ONNX](https://onnx.ai/). This compatibility allows developers to use existing models and workflows easily. + +- **Easy to Use**: NCNN models are designed for easy integration into various applications, thanks to their compatibility with popular deep learning frameworks. Additionally, NCNN offers user-friendly tools for converting models between different formats, ensuring smooth interoperability across the development landscape. + +## Deployment Options with NCNN + +Before we look at the code for exporting YOLOv8 models to the NCNN format, let’s understand how NCNN models are normally used. + +NCNN models, designed for efficiency and performance, are compatible with a variety of deployment platforms: + +- **Mobile Deployment**: Specifically optimized for Android and iOS, allowing for seamless integration into mobile applications for efficient on-device inference. + +- **Embedded Systems and IoT Devices**: If you find that running inference on a Raspberry Pi with the [Ultralytics Guide](../guides/raspberry-pi.md) isn't fast enough, switching to an NCNN exported model could help speed things up. NCNN is great for devices like Raspberry Pi and NVIDIA Jetson, especially in situations where you need quick processing right on the device. + +- **Desktop and Server Deployment**: Capable of being deployed in desktop and server environments across Linux, Windows, and macOS, supporting development, training, and evaluation with higher computational capacities. + +## Export to NCNN: Converting Your YOLOv8 Model + +You can expand model compatibility and deployment flexibility by converting YOLOv8 models to NCNN format. + +### Installation + +To install the required packages, run: + +!!! Tip "Installation" + + === "CLI" + + ```bash + # Install the required package for YOLOv8 + pip install ultralytics + ``` + +For detailed instructions and best practices related to the installation process, check our [Ultralytics Installation guide](../quickstart.md). While installing the required packages for YOLOv8, if you encounter any difficulties, consult our [Common Issues guide](../guides/yolo-common-issues.md) for solutions and tips. + +### Usage + +Before diving into the usage instructions, it's important to note that while all [Ultralytics YOLOv8 models](../models/index.md) are available for exporting, you can ensure that the model you select supports export functionality [here](../modes/export.md). + +!!! Example "Usage" + + === "Python" + + ```python + from ultralytics import YOLO + + # Load the YOLOv8 model + model = YOLO('yolov8n.pt') + + # Export the model to NCNN format + model.export(format='ncnn') # creates '/yolov8n_ncnn_model' + + # Load the exported NCNN model + ncnn_model = YOLO('./yolov8n_ncnn_model') + + # Run inference + results = ncnn_model('https://ultralytics.com/images/bus.jpg') + ``` + + === "CLI" + + ```bash + # Export a YOLOv8n PyTorch model to NCNN format + yolo export model=yolov8n.pt format=ncnn # creates '/yolov8n_ncnn_model' + + # Run inference with the exported model + yolo predict model='./yolov8n_ncnn_model' source='https://ultralytics.com/images/bus.jpg' + ``` + +For more details about supported export options, visit the [Ultralytics documentation page on deployment options](../guides/model-deployment-options.md). + +## Deploying Exported YOLOv8 NCNN Models + +After successfully exporting your Ultralytics YOLOv8 models to NCNN format, you can now deploy them. The primary and recommended first step for running a NCNN model is to utilize the YOLO("./model_ncnn_model") method, as outlined in the previous usage code snippet. However, for in-depth instructions on deploying your NCNN models in various other settings, take a look at the following resources: + +- **[Android](https://github.com/Tencent/ncnn/wiki/how-to-build#build-for-android)**: This blog explains how to use NCNN models for performing tasks like object detection through Android applications. + +- **[macOS](https://github.com/Tencent/ncnn/wiki/how-to-build#build-for-macos)**: Understand how to use NCNN models for performing tasks through macOS. + +- **[Linux](https://github.com/Tencent/ncnn/wiki/how-to-build#build-for-linux)**: Explore this page to learn how to deploy NCNN models on limited resource devices like Raspberry Pi and other similar devices. + +- **[Windows x64 using VS2017](https://github.com/Tencent/ncnn/wiki/how-to-build#build-for-windows-x64-using-visual-studio-community-2017)**: Explore this blog to learn how to deploy NCNN models on windows x64 using Visual Studio Community 2017. + +## Summary + +In this guide, we've gone over exporting Ultralytics YOLOv8 models to the NCNN format. This conversion step is crucial for improving the efficiency and speed of YOLOv8 models, making them more effective and suitable for limited-resource computing environments. + +For detailed instructions on usage, please refer to the [official NCNN documentation](https://ncnn.readthedocs.io/en/latest/index.html). + +Also, if you're interested in exploring other integration options for Ultralytics YOLOv8, be sure to visit our [integration guide page](index.md) for further insights and information. diff --git a/docs/en/integrations/neural-magic.md b/docs/en/integrations/neural-magic.md index 90e90dbef0e..293c1991dfc 100644 --- a/docs/en/integrations/neural-magic.md +++ b/docs/en/integrations/neural-magic.md @@ -6,14 +6,14 @@ keywords: YOLOv8, DeepSparse Engine, Ultralytics, CPU Inference, Neural Network # Optimizing YOLOv8 Inferences with Neural Magic’s DeepSparse Engine -When deploying object detection models like [Ultralytics’ YOLOv8](https://ultralytics.com) on various hardware, you can bump into unique issues like optimization. This is where YOLOv8’s integration with Neural Magic’s DeepSparse Engine steps in. It transforms the way YOLOv8 models are executed and enables GPU-level performance directly on CPUs. +When deploying object detection models like [Ultralytics YOLOv8](https://ultralytics.com) on various hardware, you can bump into unique issues like optimization. This is where YOLOv8’s integration with Neural Magic’s DeepSparse Engine steps in. It transforms the way YOLOv8 models are executed and enables GPU-level performance directly on CPUs. This guide shows you how to deploy YOLOv8 using Neural Magic's DeepSparse, how to run inferences, and also how to benchmark performance to ensure it is optimized. ## Neural Magic’s DeepSparse

- Neural Magic’s DeepSparse Overview + Neural Magic’s DeepSparse Overview

[Neural Magic’s DeepSparse](https://neuralmagic.com/deepsparse/) is an inference run-time designed to optimize the execution of neural networks on CPUs. It applies advanced techniques like sparsity, pruning, and quantization to dramatically reduce computational demands while maintaining accuracy. DeepSparse offers an agile solution for efficient and scalable neural network execution across various devices. diff --git a/docs/en/integrations/openvino.md b/docs/en/integrations/openvino.md index 6f552ff1681..4234d78d571 100644 --- a/docs/en/integrations/openvino.md +++ b/docs/en/integrations/openvino.md @@ -6,15 +6,15 @@ keywords: ultralytics docs, YOLOv8, export YOLOv8, YOLOv8 model deployment, expo # Intel OpenVINO Export -OpenVINO Ecosystem +OpenVINO Ecosystem -In this guide, we cover exporting YOLOv8 models to the [OpenVINO](https://docs.openvino.ai/) format, which can provide up to 3x [CPU](https://docs.openvino.ai/2023.0/openvino_docs_OV_UG_supported_plugins_CPU.html) speedup as well as accelerating on other Intel hardware ([iGPU](https://docs.openvino.ai/2023.0/openvino_docs_OV_UG_supported_plugins_GPU.html), [dGPU](https://docs.openvino.ai/2023.0/openvino_docs_OV_UG_supported_plugins_GPU.html), [VPU](https://docs.openvino.ai/2022.3/openvino_docs_OV_UG_supported_plugins_VPU.html), etc.). +In this guide, we cover exporting YOLOv8 models to the [OpenVINO](https://docs.openvino.ai/) format, which can provide up to 3x [CPU](https://docs.openvino.ai/2024/openvino-workflow/running-inference/inference-devices-and-modes/cpu-device.html) speedup, as well as accelerating YOLO inference on Intel [GPU](https://docs.openvino.ai/2024/openvino-workflow/running-inference/inference-devices-and-modes/gpu-device.html) and [NPU](https://docs.openvino.ai/2024/openvino-workflow/running-inference/inference-devices-and-modes/npu-device.html) hardware. OpenVINO, short for Open Visual Inference & Neural Network Optimization toolkit, is a comprehensive toolkit for optimizing and deploying AI inference models. Even though the name contains Visual, OpenVINO also supports various additional tasks including language, audio, time series, etc.


-
- Watch: Explore Ultralytics YOLO Tasks: Image Classification + Watch: Explore Ultralytics YOLO Tasks: Image Classification using Ultralytics HUB

!!! Tip "Tip" @@ -176,6 +176,6 @@ Available YOLOv8-cls export formats are in the table below. You can predict or v | [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | | [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz`, `half`, `int8` | | [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | +| [NCNN](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | See full `export` details in the [Export](https://docs.ultralytics.com/modes/export/) page. diff --git a/docs/en/tasks/detect.md b/docs/en/tasks/detect.md index 23bb0f7e54a..b5d2700924a 100644 --- a/docs/en/tasks/detect.md +++ b/docs/en/tasks/detect.md @@ -14,7 +14,7 @@ The output of an object detector is a set of bounding boxes that enclose the obj


- -
- Watch: Pose Estimation with Ultralytics YOLOv8. -

+ + + + + +
+ +
+ Watch: Pose Estimation with Ultralytics YOLOv8. +
+ +
+ Watch: Pose Estimation with Ultralytics HUB. +
!!! Tip "Tip" @@ -180,6 +192,6 @@ Available YOLOv8-pose export formats are in the table below. You can predict or | [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | | [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz`, `half`, `int8` | | [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | +| [NCNN](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | See full `export` details in the [Export](https://docs.ultralytics.com/modes/export/) page. diff --git a/docs/en/tasks/segment.md b/docs/en/tasks/segment.md index 4954250bb37..921378a450e 100644 --- a/docs/en/tasks/segment.md +++ b/docs/en/tasks/segment.md @@ -14,7 +14,7 @@ The output of an instance segmentation model is a set of masks or contours that


- -
- Ver: Cómo entrenar un modelo YOLOv8 en Su Conjunto de Datos Personalizado en Google Colab. -

- -## YOLO: Una Breve Historia - -[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once), un modelo popular de detección de objetos y segmentación de imágenes, fue desarrollado por Joseph Redmon y Ali Farhadi en la Universidad de Washington. Lanzado en 2015, YOLO rápidamente ganó popularidad por su alta velocidad y precisión. - -- [YOLOv2](https://arxiv.org/abs/1612.08242), lanzado en 2016, mejoró el modelo original incorporando normalización por lotes, cajas ancla y clústeres de dimensiones. -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), lanzado en 2018, mejoró aún más el rendimiento del modelo usando una red dorsal más eficiente, múltiples anclas y agrupación piramidal espacial. -- [YOLOv4](https://arxiv.org/abs/2004.10934) fue lanzado en 2020, introduciendo innovaciones como la ampliación de datos del mosaico, un nuevo cabezal de detección sin ancla y una nueva función de pérdida. -- [YOLOv5](https://github.com/ultralytics/yolov5) mejoró aún más el rendimiento del modelo y agregó nuevas características como la optimización de hiperparámetros, seguimiento de experimentos integrados y exportación automática a formatos de exportación populares. -- [YOLOv6](https://github.com/meituan/YOLOv6) fue publicado en código abierto por [Meituan](https://about.meituan.com/) en 2022 y se utiliza en muchos de los robots de entrega autónomos de la empresa. -- [YOLOv7](https://github.com/WongKinYiu/yolov7) añadió tareas adicionales como la estimación de posturas en el conjunto de datos COCO keypoints. -- [YOLOv8](https://github.com/ultralytics/ultralytics) es la última versión de YOLO de Ultralytics. Como un modelo de vanguardia y del estado del arte (SOTA), YOLOv8 se basa en el éxito de las versiones anteriores, introduciendo nuevas características y mejoras para obtener un rendimiento mejorado, flexibilidad y eficiencia. YOLOv8 soporta una gama completa de tareas de IA de visión, incluyendo [detección](tasks/detect.md), [segmentación](tasks/segment.md), [estimación de pose](tasks/pose.md), [seguimiento](modes/track.md) y [clasificación](tasks/classify.md). Esta versatilidad permite a los usuarios aprovechar las capacidades de YOLOv8 en una amplia gama de aplicaciones y dominios. - -## Licencias de YOLO: ¿Cómo están licenciados los YOLO de Ultralytics? - -Ultralytics ofrece dos opciones de licencia para acomodar casos de uso diversos: - -- **Licencia AGPL-3.0**: Esta licencia de código abierto aprobada por [OSI](https://opensource.org/licenses/) es ideal para estudiantes y entusiastas, promoviendo la colaboración abierta y el intercambio de conocimiento. Consulte el archivo [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) para obtener más detalles. -- **Licencia Empresarial**: Diseñada para uso comercial, esta licencia permite la integración sin problemas de software de Ultralytics y modelos de IA en bienes y servicios comerciales, eludiendo los requisitos de código abierto de AGPL-3.0. Si su escenario implica la incorporación de nuestras soluciones en una oferta comercial, póngase en contacto a través de [Licencias de Ultralytics](https://ultralytics.com/license). - -Nuestra estrategia de licenciamiento está diseñada para asegurar que cualquier mejora a nuestros proyectos de código abierto se devuelva a la comunidad. Mantenemos los principios del código abierto cerca de nuestros corazones ❤️, y nuestra misión es garantizar que nuestras contribuciones puedan ser utilizadas y ampliadas de formas que sean beneficiosas para todos. diff --git a/docs/es/models/fast-sam.md b/docs/es/models/fast-sam.md deleted file mode 100644 index dfaee11f9d3..00000000000 --- a/docs/es/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: Explora FastSAM, una solución basada en CNN para la segmentación en tiempo real de objetos en imágenes. Ofrece una interacción mejorada del usuario, eficiencia computacional y es adaptable a diversas tareas de visión. -keywords: FastSAM, aprendizaje automático, solución basada en CNN, segmentación de objetos, solución en tiempo real, Ultralytics, tareas de visión, procesamiento de imágenes, aplicaciones industriales, interacción del usuario ---- - -# Modelo para Segmentar Cualquier Cosa Rápidamente (FastSAM) - -El Modelo para Segmentar Cualquier Cosa Rápidamente (FastSAM) es una solución novedosa basada en CNN que funciona en tiempo real para la tarea de Segmentar Cualquier Cosa. Esta tarea está diseñada para segmentar cualquier objeto dentro de una imagen basándose en diversas indicaciones posibles de interacción del usuario. FastSAM reduce significativamente las demandas computacionales a la vez que mantiene un rendimiento competitivo, lo que lo convierte en una opción práctica para una variedad de tareas de visión. - -![Descripción general de la arquitectura del Modelo para Segmentar Cualquier Cosa Rápidamente (FastSAM)](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## Descripción general - -FastSAM está diseñado para abordar las limitaciones del [Modelo para Segmentar Cualquier Cosa (SAM)](sam.md), un modelo Transformer pesado con requerimientos sustanciales de recursos computacionales. FastSAM divide la tarea de segmentar cualquier cosa en dos etapas secuenciales: segmentación de todas las instancias y selección basada en indicaciones. La primera etapa utiliza [YOLOv8-seg](../tasks/segment.md) para producir las máscaras de segmentación de todas las instancias en la imagen. En la segunda etapa, produce la región de interés correspondiente a la indicación. - -## Características principales - -1. **Solución en tiempo real:** Al aprovechar la eficiencia computacional de las CNN, FastSAM proporciona una solución en tiempo real para la tarea de segmentar cualquier cosa, lo que lo hace valioso para aplicaciones industriales que requieren resultados rápidos. - -2. **Eficiencia y rendimiento:** FastSAM ofrece una reducción significativa en las demandas computacionales y de recursos sin comprometer la calidad del rendimiento. Alcanza un rendimiento comparable al de SAM, pero con recursos computacionales drásticamente reducidos, lo que permite su aplicación en tiempo real. - -3. **Segmentación guiada por indicaciones:** FastSAM puede segmentar cualquier objeto dentro de una imagen guiado por diversas indicaciones posibles de interacción del usuario, lo que proporciona flexibilidad y adaptabilidad en diferentes escenarios. - -4. **Basado en YOLOv8-seg:** FastSAM se basa en [YOLOv8-seg](../tasks/segment.md), un detector de objetos equipado con una rama de segmentación de instancias. Esto le permite producir de manera efectiva las máscaras de segmentación de todas las instancias en una imagen. - -5. **Resultados competitivos en pruebas de referencia:** En la tarea de propuesta de objetos de MS COCO, FastSAM alcanza puntuaciones altas a una velocidad significativamente más rápida que [SAM](sam.md) en una sola tarjeta NVIDIA RTX 3090, lo que demuestra su eficiencia y capacidad. - -6. **Aplicaciones prácticas:** El enfoque propuesto proporciona una solución nueva y práctica para un gran número de tareas de visión a una velocidad muy alta, varias veces más rápida que los métodos actuales. - -7. **Factibilidad de compresión del modelo:** FastSAM demuestra la factibilidad de un camino que puede reducir significativamente el esfuerzo computacional al introducir una prioridad artificial en la estructura, abriendo así nuevas posibilidades para la arquitectura de modelos grandes en tareas generales de visión. - -## Modelos disponibles, tareas admitidas y modos de funcionamiento - -Esta tabla presenta los modelos disponibles con sus pesos pre-entrenados específicos, las tareas que admiten y su compatibilidad con diferentes modos de funcionamiento, como [Inference](../modes/predict.md) (inferencia), [Validation](../modes/val.md) (validación), [Training](../modes/train.md) (entrenamiento) y [Export](../modes/export.md) (exportación), indicados mediante emojis ✅ para los modos admitidos y emojis ❌ para los modos no admitidos. - -| Tipo de modelo | Pesos pre-entrenados | Tareas admitidas | Inferencia | Validación | Entrenamiento | Exportación | -|----------------|----------------------|---------------------------------------------------|------------|------------|---------------|-------------| -| FastSAM-s | `FastSAM-s.pt` | [Segmentación de Instancias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [Segmentación de Instancias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Ejemplos de uso - -Los modelos FastSAM son fáciles de integrar en tus aplicaciones Python. Ultralytics proporciona una API y comandos de línea de comandos (CLI) fáciles de usar para agilizar el desarrollo. - -### Uso de predicción - -Para realizar la detección de objetos en una imagen, utiliza el método `predict` de la siguiente manera: - -!!! Example "Ejemplo" - - === "Python" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # Define una fuente de inferencia - source = 'ruta/hacia/bus.jpg' - - # Crea un modelo FastSAM - model = FastSAM('FastSAM-s.pt') # o FastSAM-x.pt - - # Ejecuta la inferencia en una imagen - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # Prepara un objeto de procesamiento de indicaciones - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # Indicación Everything - ann = prompt_process.everything_prompt() - - # Caja predeterminada [0,0,0,0] -> [x1,y1,x2,y2] - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # Indicación de texto - ann = prompt_process.text_prompt(text='una foto de un perro') - - # Indicación de punto - # puntos predeterminados [[0,0]] [[x1,y1],[x2,y2]] - # etiqueta_predeterminada [0] [1,0] 0:fondo, 1:primer plano - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # Carga un modelo FastSAM y segmenta todo con él - yolo segment predict model=FastSAM-s.pt source=ruta/hacia/bus.jpg imgsz=640 - ``` - -Este fragmento de código demuestra la simplicidad de cargar un modelo pre-entrenado y realizar una predicción en una imagen. - -### Uso de validación - -La validación del modelo en un conjunto de datos se puede realizar de la siguiente manera: - -!!! Example "Ejemplo" - - === "Python" - ```python - from ultralytics import FastSAM - - # Crea un modelo FastSAM - model = FastSAM('FastSAM-s.pt') # o FastSAM-x.pt - - # Valida el modelo - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # Carga un modelo FastSAM y valida en el conjunto de datos de ejemplo COCO8 con un tamaño de imagen de 640 - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -Ten en cuenta que FastSAM solo admite la detección y segmentación de una sola clase de objeto. Esto significa que reconocerá y segmentará todos los objetos como si fueran de la misma clase. Por lo tanto, al preparar el conjunto de datos, debes convertir todos los IDs de categoría de objetos a 0. - -## Uso oficial de FastSAM - -FastSAM también está disponible directamente en el repositorio [https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM). Aquí hay una descripción general breve de los pasos típicos que podrías seguir para usar FastSAM: - -### Instalación - -1. Clona el repositorio de FastSAM: - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. Crea y activa un entorno Conda con Python 3.9: - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. Navega hasta el repositorio clonado e instala los paquetes requeridos: - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. Instala el modelo CLIP: - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### Ejemplo de uso - -1. Descarga un [punto de control del modelo](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing). - -2. Utiliza FastSAM para inferencia. Ejemplos de comandos: - - - Segmentar todo en una imagen: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - Segmentar objetos específicos utilizando una indicación de texto: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "el perro amarillo" - ``` - - - Segmentar objetos dentro de una caja delimitadora (proporciona las coordenadas de la caja en formato xywh): - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - Segmentar objetos cerca de puntos específicos: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -Además, puedes probar FastSAM a través de una [demostración en Colab](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing) o en la [demostración web de HuggingFace](https://huggingface.co/spaces/An-619/FastSAM) para tener una experiencia visual. - -## Citas y agradecimientos - -Nos gustaría agradecer a los autores de FastSAM por sus importantes contribuciones en el campo de la segmentación de instancias en tiempo real: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -El artículo original de FastSAM se puede encontrar en [arXiv](https://arxiv.org/abs/2306.12156). Los autores han puesto su trabajo a disposición del público, y el código base se puede acceder en [GitHub](https://github.com/CASIA-IVA-Lab/FastSAM). Agradecemos sus esfuerzos para avanzar en el campo y hacer que su trabajo sea accesible a la comunidad en general. diff --git a/docs/es/models/index.md b/docs/es/models/index.md deleted file mode 100644 index a7137f913fd..00000000000 --- a/docs/es/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Explore la amplia gama de modelos de la familia YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS y RT-DETR soportados por Ultralytics. Comienza con ejemplos para el uso tanto de CLI como de Python. -keywords: Ultralytics, documentación, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, modelos, arquitecturas, Python, CLI ---- - -# Modelos soportados por Ultralytics - -¡Bienvenido a la documentación de modelos de Ultralytics! Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como [detección de objetos](../tasks/detect.md), [segmentación de instancias](../tasks/segment.md), [clasificación de imágenes](../tasks/classify.md), [estimación de posturas](../tasks/pose.md), y [seguimiento de múltiples objetos](../modes/track.md). Si estás interesado en contribuir con tu arquitectura de modelo a Ultralytics, consulta nuestra [Guía de Contribución](../../help/contributing.md). - -!!! Note "Nota" - - 🚧 Estamos trabajando arduamente para mejorar nuestra documentación en varios idiomas actualmente en construcción. ¡Gracias por tu paciencia! 🙏 - -## Modelos destacados - -Aquí están algunos de los modelos clave soportados: - -1. **[YOLOv3](yolov3.md)**: La tercera iteración de la familia de modelos YOLO, original de Joseph Redmon, conocida por su capacidad de detección de objetos en tiempo real eficientemente. -2. **[YOLOv4](yolov4.md)**: Una actualización nativa de darknet para YOLOv3, lanzada por Alexey Bochkovskiy en 2020. -3. **[YOLOv5](yolov5.md)**: Una versión mejorada de la arquitectura YOLO por Ultralytics, ofreciendo un mejor rendimiento y compromiso de velocidad comparado con versiones anteriores. -4. **[YOLOv6](yolov6.md)**: Lanzado por [Meituan](https://about.meituan.com/) en 2022, y utilizado en muchos de los robots de entrega autónomos de la compañía. -5. **[YOLOv7](yolov7.md)**: Modelos YOLO actualizados lanzados en 2022 por los autores de YOLOv4. -6. **[YOLOv8](yolov8.md) NUEVO 🚀**: La última versión de la familia YOLO, con capacidades mejoradas como segmentación de instancias, estimación de posturas/puntos clave y clasificación. -7. **[Modelo Segment Anything (SAM)](sam.md)**: Modelo Segment Anything (SAM) de Meta. -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**: MobileSAM para aplicaciones móviles, por la Universidad de Kyung Hee. -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**: FastSAM por el Grupo de Análisis de Imagen y Video, Instituto de Automatización, Academia China de Ciencias. -10. **[YOLO-NAS](yolo-nas.md)**: Modelos YOLO de Búsqueda de Arquitectura Neural (NAS). -11. **[Transformadores de Detección en Tiempo Real (RT-DETR)](rtdetr.md)**: Modelos de Transformador de Detección en Tiempo Real (RT-DETR) de Baidu's PaddlePaddle. - -

-
- -
- Mira: Ejecuta modelos YOLO de Ultralytics en solo unas pocas líneas de código. -

- -## Empezando: Ejemplos de Uso - -Este ejemplo proporciona ejemplos simples de entrenamiento e inferencia YOLO. Para la documentación completa de estos y otros [modos](../modes/index.md), consulta las páginas de documentación de [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) y [Export](../modes/export.md). - -Nota que el siguiente ejemplo es para los modelos YOLOv8 [Detect](../tasks/detect.md) para detección de objetos. Para tareas adicionales soportadas, consulta la documentación de [Segment](../tasks/segment.md), [Classify](../tasks/classify.md) y [Pose](../tasks/pose.md). - -!!! Example "Ejemplo" - - === "Python" - - Los modelos pre-entrenados `*.pt` de PyTorch así como los archivos de configuración `*.yaml` se pueden pasar a las clases `YOLO()`, `SAM()`, `NAS()` y `RTDETR()` para crear una instancia de modelo en Python: - - ```python - from ultralytics import YOLO - - # Cargar un modelo YOLOv8n preentrenado en COCO - model = YOLO('yolov8n.pt') - - # Mostrar información del modelo (opcional) - model.info() - - # Entrenar el modelo en el conjunto de datos de ejemplo COCO8 durante 100 épocas - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Ejecutar inferencia con el modelo YOLOv8n en la imagen 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Los comandos CLI están disponibles para ejecutar directamente los modelos: - - ```bash - # Cargar un modelo YOLOv8n preentrenado en COCO y entrenarlo en el conjunto de datos de ejemplo COCO8 durante 100 épocas - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Cargar un modelo YOLOv8n preentrenado en COCO y ejecutar inferencia en la imagen 'bus.jpg' - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## Contribuir con Nuevos Modelos - -¿Interesado en contribuir con tu modelo a Ultralytics? ¡Genial! Siempre estamos abiertos a expandir nuestro portafolio de modelos. - -1. **Haz un Fork del Repositorio**: Comienza haciendo un fork del [repositorio de GitHub de Ultralytics](https://github.com/ultralytics/ultralytics). - -2. **Clona tu Fork**: Clona tu fork a tu máquina local y crea una nueva rama para trabajar. - -3. **Implementa tu Modelo**: Añade tu modelo siguiendo los estándares de codificación y directrices proporcionadas en nuestra [Guía de Contribución](../../help/contributing.md). - -4. **Prueba Rigurosamente**: Asegúrate de probar tu modelo rigurosamente, tanto de forma aislada como parte del proceso. - -5. **Crea un Pull Request**: Una vez que estés satisfecho con tu modelo, crea un pull request al repositorio principal para revisión. - -6. **Revisión de Código y Fusión**: Después de la revisión, si tu modelo cumple con nuestros criterios, será fusionado al repositorio principal. - -Para pasos detallados, consulta nuestra [Guía de Contribución](../../help/contributing.md). diff --git a/docs/es/models/mobile-sam.md b/docs/es/models/mobile-sam.md deleted file mode 100644 index bf68ab7ad1d..00000000000 --- a/docs/es/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: Obtén más información sobre MobileSAM, su implementación, comparación con SAM original y cómo descargarlo y probarlo en el framework de Ultralytics. ¡Mejora tus aplicaciones móviles hoy mismo! -keywords: MobileSAM, Ultralytics, SAM, aplicaciones móviles, Arxiv, GPU, API, codificador de imágenes, decodificador de máscaras, descarga de modelos, método de prueba ---- - -![Logotipo de MobileSAM](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# Segmentación Móvil de Cualquier Cosa (MobileSAM) - -El artículo de MobileSAM ahora está disponible en [arXiv](https://arxiv.org/pdf/2306.14289.pdf). - -Una demostración de MobileSAM funcionando en una CPU se puede acceder en este [enlace de demostración](https://huggingface.co/spaces/dhkim2810/MobileSAM). El rendimiento en una CPU Mac i5 tarda aproximadamente 3 segundos. En la demostración de Hugging Face, la interfaz y las CPUs de menor rendimiento contribuyen a una respuesta más lenta, pero sigue funcionando de manera efectiva. - -MobileSAM se implementa en varios proyectos, incluyendo [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything), [AnyLabeling](https://github.com/vietanhdev/anylabeling) y [Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D). - -MobileSAM se entrena en una sola GPU con un conjunto de datos de 100k (1% de las imágenes originales) en menos de un día. El código para este entrenamiento estará disponible en el futuro. - -## Modelos Disponibles, Tareas Admitidas y Modos de Operación - -Esta tabla presenta los modelos disponibles con sus pesos pre-entrenados específicos, las tareas que admiten y su compatibilidad con diferentes modos de operación como [Inference (Inferencia)](../modes/predict.md), [Validation (Validación)](../modes/val.md), [Training (Entrenamiento)](../modes/train.md) y [Export (Exportación)](../modes/export.md), indicados por emojis ✅ para los modos admitidos y emojis ❌ para los modos no admitidos. - -| Tipo de Modelo | Pesos Pre-entrenados | Tareas Admitidas | Inferencia | Validación | Entrenamiento | Exportación | -|----------------|----------------------|---------------------------------------------------|------------|------------|---------------|-------------| -| MobileSAM | `mobile_sam.pt` | [Segmentación de Instancias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Adaptación de SAM a MobileSAM - -Dado que MobileSAM mantiene el mismo pipeline que SAM original, hemos incorporado el pre-procesamiento, post-procesamiento y todas las demás interfaces del original. En consecuencia, aquellos que actualmente utilizan SAM original pueden hacer la transición a MobileSAM con un esfuerzo mínimo. - -MobileSAM tiene un rendimiento comparable a SAM original y mantiene el mismo pipeline excepto por un cambio en el codificador de imágenes. Específicamente, reemplazamos el codificador de imágenes original ViT-H pesado (632M) por uno más pequeño, Tiny-ViT (5M). En una sola GPU, MobileSAM funciona a aproximadamente 12ms por imagen: 8ms en el codificador de imágenes y 4ms en el decodificador de máscaras. - -La siguiente tabla proporciona una comparación de los codificadores de imágenes basados en ViT: - -| Codificador de Imágenes | SAM Original | MobileSAM | -|-------------------------|--------------|-----------| -| Parámetros | 611M | 5M | -| Velocidad | 452ms | 8ms | - -Tanto SAM original como MobileSAM utilizan el mismo decodificador de máscaras guiado por instrucciones: - -| Decodificador de Máscaras | SAM Original | MobileSAM | -|---------------------------|--------------|-----------| -| Parámetros | 3.876M | 3.876M | -| Velocidad | 4ms | 4ms | - -Aquí está la comparación de todo el pipeline: - -| Pipeline Completo (Enc+Dec) | SAM Original | MobileSAM | -|-----------------------------|--------------|-----------| -| Parámetros | 615M | 9.66M | -| Velocidad | 456ms | 12ms | - -El rendimiento de MobileSAM y SAM original se demuestra utilizando tanto un punto como una caja como instrucciones. - -![Imagen con Punto como Instrucción](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![Imagen con Caja como Instrucción](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -Con su rendimiento superior, MobileSAM es aproximadamente 5 veces más pequeño y 7 veces más rápido que el actual FastSAM. Más detalles están disponibles en la [página del proyecto de MobileSAM](https://github.com/ChaoningZhang/MobileSAM). - -## Probando MobileSAM en Ultralytics - -Al igual que SAM original, ofrecemos un método sencillo de prueba en Ultralytics, que incluye modos tanto para instrucciones de Punto como para Caja. - -### Descarga del Modelo - -Puedes descargar el modelo [aquí](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt). - -### Instrucción de Punto - -!!! Example "Ejemplo" - - === "Python" - ```python - from ultralytics import SAM - - # Carga el modelo - model = SAM('mobile_sam.pt') - - # Predice un segmento basado en una instrucción de punto - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### Instrucción de Caja - -!!! Example "Ejemplo" - - === "Python" - ```python - from ultralytics import SAM - - # Carga el modelo - model = SAM('mobile_sam.pt') - - # Predice un segmento basado en una instrucción de caja - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -Hemos implementado `MobileSAM` y `SAM` utilizando la misma API. Para obtener más información sobre cómo usarlo, consulta la [página de SAM](sam.md). - -## Citaciones y Reconocimientos - -Si encuentras útil MobileSAM en tu investigación o trabajo de desarrollo, considera citar nuestro artículo: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/es/models/rtdetr.md b/docs/es/models/rtdetr.md deleted file mode 100644 index fada0ae5417..00000000000 --- a/docs/es/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: Descubre las características y beneficios de RT-DETR, un eficiente y adaptable detector de objetos en tiempo real desarrollado por Baidu y potenciado por Vision Transformers, que incluye modelos pre-entrenados. -keywords: RT-DETR, Baidu, Vision Transformers, detección de objetos, rendimiento en tiempo real, CUDA, TensorRT, selección de consultas IoU, Ultralytics, API de Python, PaddlePaddle ---- - -# RT-DETR de Baidu: Un Detector de Objetos en Tiempo Real Basado en Vision Transformers - -## Resumen - -Real-Time Detection Transformer (RT-DETR), desarrollado por Baidu, es un avanzado detector de objetos de extremo a extremo que proporciona un rendimiento en tiempo real manteniendo una alta precisión. Utiliza la potencia de Vision Transformers (ViT) para procesar de manera eficiente características de múltiples escalas mediante la descomposición de la interacción intra-escala y la fusión inter-escala. RT-DETR es altamente adaptable y permite ajustar de manera flexible la velocidad de inferencia utilizando diferentes capas de decodificador sin necesidad de volver a entrenar el modelo. El modelo se destaca en plataformas aceleradas como CUDA con TensorRT, superando a muchos otros detectores de objetos en tiempo real. - -![Ejemplo de imagen del modelo](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**Resumen de RT-DETR de Baidu.** El diagrama de la arquitectura del modelo RT-DETR muestra las últimas tres etapas del canal (S3, S4, S5) como entrada al codificador. El eficiente codificador híbrido transforma características de múltiples escalas en una secuencia de características de imagen a través del módulo de interacción de características intra-escala (AIFI) y el módulo de fusión de características inter-escala (CCFM). Se utiliza la selección de consultas IoU-aware para seleccionar un número fijo de características de imagen que servirán como consultas iniciales de objetos para el decodificador. Finalmente, el decodificador con cabeceras de predicción auxiliares optimiza iterativamente las consultas de objetos para generar cajas y puntuaciones de confianza ([fuente](https://arxiv.org/pdf/2304.08069.pdf)). - -### Características Clave - -- **Codificador Híbrido Eficiente:** RT-DETR de Baidu utiliza un codificador híbrido eficiente que procesa características de múltiples escalas mediante la descomposición de la interacción intra-escala y la fusión inter-escala. Este diseño único basado en Vision Transformers reduce los costos computacionales y permite la detección de objetos en tiempo real. -- **Selección de Consultas IoU-aware:** RT-DETR de Baidu mejora la inicialización de las consultas de objetos utilizando la selección de consultas IoU-aware. Esto permite que el modelo se enfoque en los objetos más relevantes de la escena, mejorando la precisión en la detección. -- **Velocidad de Inferencia Adaptable:** RT-DETR de Baidu admite ajustes flexibles de la velocidad de inferencia utilizando diferentes capas de decodificador sin necesidad de volver a entrenar el modelo. Esta adaptabilidad facilita la aplicación práctica en diversos escenarios de detección de objetos en tiempo real. - -## Modelos Pre-entrenados - -La API de Python de Ultralytics proporciona modelos pre-entrenados de RT-DETR de PaddlePaddle en diferentes escalas: - -- RT-DETR-L: 53.0% AP en COCO val2017, 114 FPS en GPU T4 -- RT-DETR-X: 54.8% AP en COCO val2017, 74 FPS en GPU T4 - -## Ejemplos de Uso - -Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia de RT-DETRR. Para obtener una documentación completa sobre estos y otros [modos](../modes/index.md), consulta las páginas de documentación de [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) y [Export](../modes/export.md). - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import RTDETR - - # Cargar un modelo RT-DETR-l pre-entrenado en COCO - model = RTDETR('rtdetr-l.pt') - - # Mostrar información del modelo (opcional) - model.info() - - # Entrenar el modelo en el conjunto de datos de ejemplo COCO8 durante 100 épocas - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Realizar inferencia con el modelo RT-DETR-l en la imagen 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # Cargar un modelo RT-DETR-l pre-entrenado en COCO y entrenarlo en el conjunto de datos de ejemplo COCO8 durante 100 épocas - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # Cargar un modelo RT-DETR-l pre-entrenado en COCO y realizar inferencia en la imagen 'bus.jpg' - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## Tareas y Modos Admitidos - -Esta tabla presenta los tipos de modelos, los pesos pre-entrenados específicos, las tareas admitidas por cada modelo y los diversos modos ([Train](../modes/train.md) , [Val](../modes/val.md), [Predict](../modes/predict.md), [Export](../modes/export.md)) admitidos, indicados por los emojis ✅. - -| Tipo de Modelo | Pesos Pre-entrenados | Tareas Admitidas | Inferencia | Validación | Entrenamiento | Exportación | -|---------------------|----------------------|--------------------------------------------|------------|------------|---------------|-------------| -| RT-DETR Large | `rtdetr-l.pt` | [Detección de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR Extra-Large | `rtdetr-x.pt` | [Detección de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## Citaciones y Agradecimientos - -Si utilizas RT-DETR de Baidu en tu investigación o trabajo de desarrollo, por favor cita el [artículo original](https://arxiv.org/abs/2304.08069): - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Nos gustaría agradecer a Baidu y al equipo de [PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection) por crear y mantener este valioso recurso para la comunidad de visión por computadora. Apreciamos enormemente su contribución al campo con el desarrollo del detector de objetos en tiempo real basado en Vision Transformers, RT-DETR. - -*keywords: RT-DETR, Transformer, ViT, Vision Transformers, Baidu RT-DETR, PaddlePaddle, Paddle Paddle RT-DETR, detección de objetos en tiempo real, detección de objetos basada en Vision Transformers, modelos pre-entrenados PaddlePaddle RT-DETR, uso de RT-DETR de Baidu, API de Python de Ultralytics* diff --git a/docs/es/models/sam.md b/docs/es/models/sam.md deleted file mode 100644 index 966c5be2b1d..00000000000 --- a/docs/es/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: Explora el revolucionario Segment Anything Model (SAM) de Ultralytics que permite la segmentación de imágenes en tiempo real. Aprende sobre su segmentación por indicación, rendimiento en la transferencia sin entrenamiento y cómo usarlo. -keywords: Ultralytics, segmentación de imágenes, Segment Anything Model, SAM, SA-1B dataset, rendimiento en tiempo real, transferencia sin entrenamiento, detección de objetos, análisis de imágenes, aprendizaje automático ---- - -# Segment Anything Model (SAM) - -Bienvenido al frontera de la segmentación de imágenes con el Segment Anything Model, o SAM. Este modelo revolucionario ha cambiado el juego al introducir la segmentación de imágenes por indicación con rendimiento en tiempo real, estableciendo nuevos estándares en el campo. - -## Introducción a SAM: Segment Anything Model - -El Segment Anything Model, o SAM, es un modelo de segmentación de imágenes de vanguardia que permite la segmentación por indicación, ofreciendo una versatilidad sin igual en las tareas de análisis de imágenes. SAM forma el corazón de la iniciativa Segment Anything, un proyecto innovador que presenta un modelo, una tarea y un conjunto de datos nuevos para la segmentación de imágenes. - -El diseño avanzado de SAM le permite adaptarse a nuevas distribuciones y tareas de imágenes sin conocimientos previos, una característica conocida como transferencia sin entrenamiento. Entrenado en el extenso [conjunto de datos SA-1B](https://ai.facebook.com/datasets/segment-anything/), que contiene más de mil millones de máscaras distribuidas en once millones de imágenes seleccionadas cuidadosamente, SAM ha demostrado un impresionante rendimiento en la transferencia sin entrenamiento, superando en muchos casos los resultados de supervisión completa anteriores. - -![Ejemplo de imagen del conjunto de datos](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -Imágenes de ejemplo con máscaras superpuestas de nuestro nuevo conjunto de datos, SA-1B. SA-1B contiene 11 millones de imágenes diversas de alta resolución, con licencia y protección de la privacidad, y 1.1 mil millones de máscaras de segmentación de alta calidad. Estas máscaras fueron anotadas completamente automáticamente por SAM y, según las calificaciones humanas y numerosos experimentos, tienen una alta calidad y diversidad. Las imágenes se agrupan por número de máscaras por imagen para su visualización (hay aproximadamente 100 máscaras por imagen en promedio). - -## Características clave del Segment Anything Model (SAM) - -- **Tarea de segmentación por indicación**: SAM fue diseñado teniendo en cuenta una tarea de segmentación por indicación, lo que le permite generar máscaras de segmentación válidas a partir de cualquier indicación dada, como pistas espaciales o de texto que identifican un objeto. -- **Arquitectura avanzada**: El Segment Anything Model utiliza un potente codificador de imágenes, un codificador de indicaciones y un decodificador de máscaras ligero. Esta arquitectura única permite la indicación flexible, el cálculo de máscaras en tiempo real y la conciencia de ambigüedades en las tareas de segmentación. -- **El conjunto de datos SA-1B**: Introducido por el proyecto Segment Anything, el conjunto de datos SA-1B cuenta con más de mil millones de máscaras en once millones de imágenes. Como el conjunto de datos de segmentación más grande hasta la fecha, proporciona a SAM una fuente de datos de entrenamiento diversa y a gran escala. -- **Rendimiento en la transferencia sin entrenamiento**: SAM muestra un destacado rendimiento en la transferencia sin entrenamiento en diversas tareas de segmentación, lo que lo convierte en una herramienta lista para usar en diversas aplicaciones con una necesidad mínima de ingeniería de indicación. - -Para obtener una visión más detallada del Segment Anything Model y el conjunto de datos SA-1B, visita el [sitio web de Segment Anything](https://segment-anything.com) y consulta el artículo de investigación [Segment Anything](https://arxiv.org/abs/2304.02643). - -## Modelos disponibles, tareas admitidas y modos de funcionamiento - -Esta tabla muestra los modelos disponibles con sus pesos pre-entrenados específicos, las tareas que admiten y su compatibilidad con diferentes modos de funcionamiento como [Inference](../modes/predict.md), [Validation](../modes/val.md), [Training](../modes/train.md) y [Export](../modes/export.md), indicados con emojis ✅ para los modos admitidos y emojis ❌ para los modos no admitidos. - -| Tipo de modelo | Pesos pre-entrenados | Tareas admitidas | Inference | Validation | Training | Export | -|----------------|----------------------|---------------------------------------------------|-----------|------------|----------|--------| -| SAM base | `sam_b.pt` | [Segmentación de instancias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| SAM large | `sam_l.pt` | [Segmentación de instancias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Cómo usar SAM: Versatilidad y potencia en la segmentación de imágenes - -El Segment Anything Model se puede utilizar para una multitud de tareas posteriores que van más allá de sus datos de entrenamiento. Esto incluye detección de bordes, generación de propuestas de objetos, segmentación de instancias y predicción preliminar de texto a máscara. Con la ingeniería de indicación, SAM puede adaptarse rápidamente a nuevas tareas y distribuciones de datos de manera sin entrenamiento, estableciéndolo como una herramienta versátil y potente para todas tus necesidades de segmentación de imágenes. - -### Ejemplo de predicción con SAM - -!!! Example "Segmentar con indicaciones" - - Segmenta la imagen con las indicaciones proporcionadas. - - === "Python" - - ```python - from ultralytics import SAM - - # Cargar un modelo - modelo = SAM('sam_b.pt') - - # Mostrar información del modelo (opcional) - modelo.info() - - # Ejecutar inferencia con indicaciones de bboxes - modelo('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # Ejecutar inferencia con indicaciones de puntos - modelo('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "Segmentar todo" - - Segmenta toda la imagen. - - === "Python" - - ```python - from ultralytics import SAM - - # Cargar un modelo - modelo = SAM('sam_b.pt') - - # Mostrar información del modelo (opcional) - modelo.info() - - # Ejecutar inferencia - modelo('ruta/hacia/imagen.jpg') - ``` - - === "CLI" - - ```bash - # Ejecutar inferencia con un modelo SAM - yolo predict model=sam_b.pt source=ruta/hacia/imagen.jpg - ``` - -- La lógica aquí es segmentar toda la imagen si no se proporcionan indicaciones (bboxes/puntos/máscaras). - -!!! Example "Ejemplo de SAMPredictor" - - De esta manera, puedes configurar una imagen una vez y ejecutar inferencia con indicaciones múltiples sin ejecutar el codificador de imágenes múltiples veces. - - === "Inferencia con indicaciones" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # Crear SAMPredictor - opciones = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(opciones=opciones) - - # Establecer imagen - predictor.set_image("ultralytics/assets/zidane.jpg") # establecer con archivo de imagen - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # establecer con np.ndarray - resultados = predictor(bboxes=[439, 437, 524, 709]) - resultados = predictor(points=[900, 370], labels=[1]) - - # Restablecer imagen - predictor.reset_image() - ``` - - Segmentar todo con argumentos adicionales. - - === "Segmentar todo" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # Crear SAMPredictor - opciones = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(opciones=opciones) - - # Segmentar con argumentos adicionales - resultados = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- Más argumentos adicionales para `Segmentar todo` en [`Referencia de Predictor/generate`](../../../reference/models/sam/predict.md). - -## SAM comparado con YOLOv8 - -Aquí comparamos el modelo SAM más pequeño de Meta, SAM-b, con el modelo de segmentación más pequeño de Ultralytics, [YOLOv8n-seg](../tasks/segment.md): - -| Modelo | Tamaño | Parámetros | Velocidad (CPU) | -|-------------------------------------------------|-------------------------------------|------------------------------|-------------------------------------| -| SAM-b de Meta | 358 MB | 94.7 M | 51096 ms/im | -| [MobileSAM](mobile-sam.md) | 40.7 MB | 10.1 M | 46122 ms/im | -| [FastSAM-s](fast-sam.md) con respaldo de YOLOv8 | 23.7 MB | 11.8 M | 115 ms/im | -| YOLOv8n-seg de Ultralytics | **6.7 MB** (53.4 veces más pequeño) | **3.4 M** (27.9 veces menos) | **59 ms/im** (866 veces más rápido) | - -Esta comparación muestra las diferencias de órdenes de magnitud en los tamaños y velocidades de los modelos. Si bien SAM presenta capacidades únicas para la segmentación automática, no es un competidor directo de los modelos de segmentación YOLOv8, que son más pequeños, más rápidos y más eficientes. - -Las pruebas se realizaron en una MacBook Apple M2 de 2023 con 16 GB de RAM. Para reproducir esta prueba: - -!!! Example "Ejemplo" - - === "Python" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # Perfil del modelo SAM-b - modelo = SAM('sam_b.pt') - modelo.info() - modelo('ultralytics/assets') - - # Perfil de MobileSAM - modelo = SAM('mobile_sam.pt') - modelo.info() - modelo('ultralytics/assets') - - # Perfil de FastSAM-s - modelo = FastSAM('FastSAM-s.pt') - modelo.info() - modelo('ultralytics/assets') - - # Perfil de YOLOv8n-seg - modelo = YOLO('yolov8n-seg.pt') - modelo.info() - modelo('ultralytics/assets') - ``` - -## Auto-anotación: un camino rápido hacia conjuntos de datos de segmentación - -La auto-anotación es una característica clave de SAM que permite a los usuarios generar un [conjunto de datos de segmentación](https://docs.ultralytics.com/datasets/segment) utilizando un modelo de detección pre-entrenado. Esta función permite una anotación rápida y precisa de un gran número de imágenes, evitando la necesidad de una etiquetación manual que consume mucho tiempo. - -### Generar tu conjunto de datos de segmentación utilizando un modelo de detección - -Para auto-anotar tu conjunto de datos con el marco de trabajo de Ultralytics, utiliza la función `auto_annotate` como se muestra a continuación: - -!!! Example "Ejemplo" - - === "Python" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="ruta/a/las/imagenes", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| Argumento | Tipo | Descripción | Predeterminado | -|------------|---------------------|-----------------------------------------------------------------------------------------------------------------------|----------------| -| data | str | Ruta a una carpeta que contiene las imágenes a anotar. | | -| det_model | str, opcional | Modelo de detección YOLO pre-entrenado. Por defecto, 'yolov8x.pt'. | 'yolov8x.pt' | -| sam_model | str, opcional | Modelo de segmentación SAM pre-entrenado. Por defecto, 'sam_b.pt'. | 'sam_b.pt' | -| device | str, opcional | Dispositivo en el que ejecutar los modelos. Por defecto, una cadena vacía (CPU o GPU, si está disponible). | | -| output_dir | str, None, opcional | Directorio para guardar los resultados anotados. Por defecto, una carpeta 'labels' en el mismo directorio que 'data'. | None | - -La función `auto_annotate` toma la ruta de tus imágenes, con argumentos opcionales para especificar los modelos de detección y segmentación SAM pre-entrenados, el dispositivo en el que ejecutar los modelos, y el directorio de salida para guardar los resultados anotados. - -La auto-anotación con modelos pre-entrenados puede reducir drásticamente el tiempo y el esfuerzo requeridos para crear conjuntos de datos de segmentación de alta calidad. Esta característica es especialmente beneficiosa para investigadores y desarrolladores que trabajan con grandes colecciones de imágenes, ya que les permite centrarse en el desarrollo y la evaluación de modelos en lugar de en la anotación manual. - -## Citas y agradecimientos - -Si encuentras útil SAM en tu trabajo de investigación o desarrollo, considera citar nuestro artículo: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Nos gustaría expresar nuestro agradecimiento a Meta AI por crear y mantener este valioso recurso para la comunidad de visión por computadora. - -*keywords: Segment Anything, Segment Anything Model, SAM, Meta SAM, segmentación de imágenes, segmentación por indicación, rendimiento en la transferencia sin entrenamiento, conjunto de datos SA-1B, arquitectura avanzada, auto-anotación, Ultralytics, modelos pre-entrenados, SAM base, SAM large, segmentación de instancias, visión por computadora, IA, inteligencia artificial, aprendizaje automático, anotación de datos, máscaras de segmentación, modelo de detección, modelo de detección YOLO, bibtex, Meta AI.* diff --git a/docs/es/models/yolo-nas.md b/docs/es/models/yolo-nas.md deleted file mode 100644 index 5d13f51386b..00000000000 --- a/docs/es/models/yolo-nas.md +++ /dev/null @@ -1,121 +0,0 @@ ---- -comments: true -description: Explora la documentación detallada de YOLO-NAS, un modelo de detección de objetos superior. Aprende sobre sus características, modelos pre-entrenados, uso con la API de Ultralytics Python, y más. -keywords: YOLO-NAS, Deci AI, detección de objetos, aprendizaje profundo, búsqueda de arquitectura neural, API de Ultralytics Python, modelo YOLO, modelos pre-entrenados, cuantización, optimización, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## Visión general - -Desarrollado por Deci AI, YOLO-NAS es un modelo revolucionario de detección de objetos. Es el producto de una tecnología avanzada de Búsqueda de Arquitectura Neural, meticulosamente diseñada para abordar las limitaciones de los modelos YOLO anteriores. Con mejoras significativas en el soporte de cuantización y el equilibrio entre precisión y latencia, YOLO-NAS representa un gran avance en la detección de objetos. - -![Ejemplo de imagen del modelo](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**Visión general de YOLO-NAS.** YOLO-NAS utiliza bloques conscientes de cuantización y cuantización selectiva para un rendimiento óptimo. El modelo, cuando se convierte en su versión cuantizada INT8, experimenta una caída mínima de precisión, una mejora significativa en comparación con otros modelos. Estos avances culminan en una arquitectura superior con capacidades de detección de objetos sin precedentes y un rendimiento sobresaliente. - -### Características clave - -- **Bloque básico compatible con cuantización:** YOLO-NAS introduce un nuevo bloque básico que es compatible con la cuantización, abordando una de las limitaciones significativas de los modelos YOLO anteriores. -- **Entrenamiento sofisticado y cuantización:** YOLO-NAS utiliza esquemas avanzados de entrenamiento y cuantización posterior para mejorar el rendimiento. -- **Optimización AutoNAC y pre-entrenamiento:** YOLO-NAS utiliza la optimización AutoNAC y se pre-entrena en conjuntos de datos prominentes como COCO, Objects365 y Roboflow 100. Este pre-entrenamiento lo hace extremadamente adecuado para tareas de detección de objetos en entornos de producción. - -## Modelos pre-entrenados - -Experimenta el poder de la detección de objetos de próxima generación con los modelos pre-entrenados de YOLO-NAS proporcionados por Ultralytics. Estos modelos están diseñados para ofrecer un rendimiento de primera clase tanto en velocidad como en precisión. Elige entre una variedad de opciones adaptadas a tus necesidades específicas: - -| Modelo | mAP | Latencia (ms) | -|------------------|-------|---------------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -Cada variante del modelo está diseñada para ofrecer un equilibrio entre la Precisión Promedio de las Areas (mAP, por sus siglas en inglés) y la latencia, ayudándote a optimizar tus tareas de detección de objetos en términos de rendimiento y velocidad. - -## Ejemplos de uso - -Ultralytics ha facilitado la integración de los modelos YOLO-NAS en tus aplicaciones de Python a través de nuestro paquete `ultralytics`. El paquete proporciona una API de Python fácil de usar para agilizar el proceso. - -Los siguientes ejemplos muestran cómo usar los modelos YOLO-NAS con el paquete `ultralytics` para inferencia y validación: - -### Ejemplos de inferencia y validación - -En este ejemplo validamos YOLO-NAS-s en el conjunto de datos COCO8. - -!!! Example "Ejemplo" - - Este ejemplo proporciona un código simple de inferencia y validación para YOLO-NAS. Para manejar los resultados de la inferencia, consulta el modo [Predict](../modes/predict.md). Para usar YOLO-NAS con modos adicionales, consulta [Val](../modes/val.md) y [Export](../modes/export.md). El paquete `ultralytics` para YOLO-NAS no admite entrenamiento. - - === "Python" - - Los archivos de modelos pre-entrenados `*.pt` de PyTorch se pueden pasar a la clase `NAS()` para crear una instancia del modelo en Python: - - ```python - from ultralytics import NAS - - # Carga un modelo YOLO-NAS-s pre-entrenado en COCO - modelo = NAS('yolo_nas_s.pt') - - # Muestra información del modelo (opcional) - modelo.info() - - # Valida el modelo en el conjunto de datos de ejemplo COCO8 - resultados = modelo.val(data='coco8.yaml') - - # Ejecuta inferencia con el modelo YOLO-NAS-s en la imagen 'bus.jpg' - resultados = modelo('path/to/bus.jpg') - ``` - - === "CLI" - - Los comandos CLI están disponibles para ejecutar directamente los modelos: - - ```bash - # Carga un modelo YOLO-NAS-s pre-entrenado en COCO y valida su rendimiento en el conjunto de datos de ejemplo COCO8 - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # Carga un modelo YOLO-NAS-s pre-entrenado en COCO y ejecuta inferencia en la imagen 'bus.jpg' - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## Tareas y modos compatibles - -Ofrecemos tres variantes de los modelos YOLO-NAS: Small (s), Medium (m) y Large (l). Cada variante está diseñada para satisfacer diferentes necesidades computacionales y de rendimiento: - -- **YOLO-NAS-s**: Optimizado para entornos donde los recursos computacionales son limitados pero la eficiencia es clave. -- **YOLO-NAS-m**: Ofrece un enfoque equilibrado, adecuado para la detección de objetos de propósito general con mayor precisión. -- **YOLO-NAS-l**: Adaptados para escenarios que requieren la mayor precisión, donde los recursos computacionales son menos restrictivos. - -A continuación se muestra una descripción detallada de cada modelo, incluyendo enlaces a sus pesos pre-entrenados, las tareas que admiten y su compatibilidad con diferentes modos de funcionamiento. - -| Tipo de modelo | Pesos pre-entrenados | Tareas admitidas | Inferencia | Validación | Entrenamiento | Exportación | -|----------------|-----------------------------------------------------------------------------------------------|--------------------------------------------|------------|------------|---------------|-------------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [Detección de objetos](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [Detección de objetos](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [Detección de objetos](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## Citaciones y agradecimientos - -Si utilizas YOLO-NAS en tu investigación o trabajo de desarrollo, por favor cita SuperGradients: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -Agradecemos al equipo de [SuperGradients](https://github.com/Deci-AI/super-gradients/) de Deci AI por sus esfuerzos en la creación y mantenimiento de este valioso recurso para la comunidad de visión por computadora. Creemos que YOLO-NAS, con su arquitectura innovadora y sus capacidades de detección de objetos superiores, se convertirá en una herramienta fundamental tanto para desarrolladores como para investigadores. - -*keywords: YOLO-NAS, Deci AI, detección de objetos, aprendizaje profundo, búsqueda de arquitectura neural, API de Ultralytics Python, modelo YOLO, SuperGradients, modelos pre-entrenados, bloque básico compatible con cuantización, esquemas avanzados de entrenamiento, cuantización posterior, optimización AutoNAC, COCO, Objects365, Roboflow 100* diff --git a/docs/es/models/yolov3.md b/docs/es/models/yolov3.md deleted file mode 100644 index 1990e5b5ed5..00000000000 --- a/docs/es/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Obtén una descripción general de YOLOv3, YOLOv3-Ultralytics y YOLOv3u. Aprende sobre sus características clave, uso y tareas admitidas para la detección de objetos. -keywords: YOLOv3, YOLOv3-Ultralytics, YOLOv3u, Detección de objetos, Inferencia, Entrenamiento, Ultralytics ---- - -# YOLOv3, YOLOv3-Ultralytics y YOLOv3u - -## Descripción general - -Este documento presenta una descripción general de tres modelos de detección de objetos estrechamente relacionados, conocidos como [YOLOv3](https://pjreddie.com/darknet/yolo/), [YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3) y [YOLOv3u](https://github.com/ultralytics/ultralytics). - -1. **YOLOv3:** Esta es la tercera versión del algoritmo de detección de objetos You Only Look Once (YOLO). Originalmente desarrollado por Joseph Redmon, YOLOv3 mejoró a sus predecesores al introducir características como predicciones multiescala y tres tamaños diferentes de núcleos de detección. - -2. **YOLOv3-Ultralytics:** Esta es la implementación de YOLOv3 realizada por Ultralytics. Reproduce la arquitectura original de YOLOv3 y ofrece funcionalidades adicionales, como soporte para más modelos pre-entrenados y opciones de personalización más fáciles. - -3. **YOLOv3u:** Esta es una versión actualizada de YOLOv3-Ultralytics que incorpora la cabeza dividida sin anclaje y sin objeto utilizada en los modelos YOLOv8. YOLOv3u mantiene la misma arquitectura de columna vertebral y cuello que YOLOv3, pero con la cabeza de detección actualizada de YOLOv8. - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## Características clave - -- **YOLOv3:** Introdujo el uso de tres escalas diferentes para la detección, aprovechando tres tamaños diferentes de núcleos de detección: 13x13, 26x26 y 52x52. Esto mejoró significativamente la precisión de detección para objetos de diferentes tamaños. Además, YOLOv3 añadió características como predicciones con múltiples etiquetas para cada cuadro delimitador y una mejor red extractora de características. - -- **YOLOv3-Ultralytics:** La implementación de Ultralytics de YOLOv3 proporciona el mismo rendimiento que el modelo original, pero cuenta con soporte adicional para más modelos pre-entrenados, métodos de entrenamiento adicionales y opciones de personalización más fáciles. Esto lo hace más versátil y fácil de usar para aplicaciones prácticas. - -- **YOLOv3u:** Este modelo actualizado incorpora la cabeza dividida sin anclaje y sin objeto de YOLOv8. Al eliminar la necesidad de cajas de anclaje predefinidas y puntuaciones de objeto, este diseño de cabeza de detección puede mejorar la capacidad del modelo para detectar objetos de diferentes tamaños y formas. Esto hace que YOLOv3u sea más robusto y preciso para tareas de detección de objetos. - -## Tareas y modos admitidos - -La serie YOLOv3, que incluye YOLOv3, YOLOv3-Ultralytics y YOLOv3u, está diseñada específicamente para tareas de detección de objetos. Estos modelos son reconocidos por su eficacia en diversos escenarios del mundo real, equilibrando precisión y velocidad. Cada variante ofrece características y optimizaciones únicas, lo que los hace adecuados para una variedad de aplicaciones. - -Los tres modelos admiten un conjunto completo de modos, asegurando versatilidad en diversas etapas del despliegue y desarrollo del modelo. Estos modos incluyen [Inferencia](../modes/predict.md), [Validación](../modes/val.md), [Entrenamiento](../modes/train.md) y [Exportación](../modes/export.md), proporcionando a los usuarios un conjunto completo de herramientas para una detección de objetos efectiva. - -| Tipo de modelo | Tareas admitidas | Inferencia | Validación | Entrenamiento | Exportación | -|--------------------|--------------------------------------------|------------|------------|---------------|-------------| -| YOLOv3 | [Detección de objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [Detección de objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [Detección de objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Esta tabla proporciona una visión rápida de las capacidades de cada variante de YOLOv3, destacando su versatilidad y aptitud para diversas tareas y modos operativos en flujos de trabajo de detección de objetos. - -## Ejemplos de uso - -Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia de YOLOv3. Para obtener documentación completa sobre estos y otros [modos](../modes/index.md), consulta las páginas de documentación de [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) y [Export](../modes/export.md). - -!!! Example "Ejemplo" - - === "Python" - - Los modelos pre-entrenados de PyTorch en archivos `*.pt`, así como los archivos de configuración `*.yaml`, se pueden pasar a la clase `YOLO()` para crear una instancia del modelo en Python: - - ```python - from ultralytics import YOLO - - # Cargar un modelo YOLOv3n pre-entrenado en COCO - model = YOLO('yolov3n.pt') - - # Mostrar información del modelo (opcional) - model.info() - - # Entrenar el modelo en el conjunto de datos de ejemplo COCO8 durante 100 épocas - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Ejecutar inferencia con el modelo YOLOv3n en la imagen 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Hay comandos de CLI disponibles para ejecutar directamente los modelos: - - ```bash - # Cargar un modelo YOLOv3n pre-entrenado en COCO y entrenarlo en el conjunto de datos de ejemplo COCO8 durante 100 épocas - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Cargar un modelo YOLOv3n pre-entrenado en COCO y ejecutar inferencia en la imagen 'bus.jpg' - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## Citaciones y agradecimientos - -Si utilizas YOLOv3 en tu investigación, por favor, cita los artículos originales de YOLO y el repositorio de YOLOv3 de Ultralytics: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -Gracias a Joseph Redmon y Ali Farhadi por desarrollar YOLOv3 original. diff --git a/docs/es/models/yolov4.md b/docs/es/models/yolov4.md deleted file mode 100644 index 05bd43ccabb..00000000000 --- a/docs/es/models/yolov4.md +++ /dev/null @@ -1,71 +0,0 @@ ---- -comments: true -description: Explora nuestra detallada guía sobre YOLOv4, un detector de objetos en tiempo real de vanguardia. Comprende sus aspectos arquitectónicos destacados, características innovadoras y ejemplos de aplicación. -keywords: ultralytics, YOLOv4, detección de objetos, red neuronal, detección en tiempo real, detector de objetos, aprendizaje automático ---- - -# YOLOv4: Detección de objetos rápida y precisa - -Bienvenido a la página de documentación de Ultralytics para YOLOv4, un detector de objetos en tiempo real de vanguardia lanzado en 2020 por Alexey Bochkovskiy en [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). YOLOv4 está diseñado para ofrecer un equilibrio óptimo entre velocidad y precisión, lo que lo convierte en una excelente opción para muchas aplicaciones. - -![Diagrama de arquitectura de YOLOv4](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**Diagrama de arquitectura de YOLOv4**. Muestra el intrincado diseño de red de YOLOv4, incluyendo los componentes backbone, neck y head, y sus capas interconectadas para una detección de objetos en tiempo real óptima. - -## Introducción - -YOLOv4 significa You Only Look Once versión 4. Es un modelo de detección de objetos en tiempo real desarrollado para abordar las limitaciones de versiones anteriores de YOLO como [YOLOv3](yolov3.md) y otros modelos de detección de objetos. A diferencia de otros detectores de objetos basados en redes neuronales convolucionales (CNN), YOLOv4 no solo es aplicable para sistemas de recomendación, sino también para la gestión de procesos independientes y la reducción de la entrada humana. Su funcionamiento en unidades de procesamiento de gráficos (GPU) convencionales permite su uso masivo a un precio asequible, y está diseñado para funcionar en tiempo real en una GPU convencional, siendo necesario solo una GPU para el entrenamiento. - -## Arquitectura - -YOLOv4 utiliza varias características innovadoras que trabajan juntas para optimizar su rendimiento. Estas incluyen Conexiones Residuales Ponderadas (WRC), Conexiones Parciales Cruzadas en Etapas (CSP), Normalización Cruzada de Mini-Batch (CmBN), Entrenamiento Autoadversarial (SAT), Activación Mish, Aumento de Datos Mosaico, Regularización DropBlock y Pérdida CIoU. Estas características se combinan para lograr resultados de vanguardia. - -Un detector de objetos típico está compuesto por varias partes, incluyendo la entrada, el backbone (espinazo), el neck (cuello) y el head (cabeza). El backbone de YOLOv4 está pre-entrenado en ImageNet y se utiliza para predecir las clases y las cajas delimitadoras de los objetos. El backbone puede ser de varios modelos, incluyendo VGG, ResNet, ResNeXt o DenseNet. La parte del neck del detector se utiliza para recolectar mapas de características de diferentes etapas y generalmente incluye varias rutas de abajo hacia arriba y varias rutas de arriba hacia abajo. La parte de la cabeza es la que se utiliza para realizar las detecciones y clasificaciones finales de objetos. - -## Bolsa de regalos - -YOLOv4 también utiliza métodos conocidos como "bolsa de regalos" (bag of freebies), que son técnicas que mejoran la precisión del modelo durante el entrenamiento sin aumentar el costo de la inferencia. La ampliación de datos es una técnica común de la bolsa de regalos utilizada en la detección de objetos, que aumenta la variabilidad de las imágenes de entrada para mejorar la robustez del modelo. Algunos ejemplos de ampliación de datos incluyen distorsiones fotométricas (ajuste del brillo, contraste, matiz, saturación y ruido de una imagen) y distorsiones geométricas (agregar escalado, recorte, volteo y rotación aleatorios). Estas técnicas ayudan al modelo a generalizar mejor para diferentes tipos de imágenes. - -## Características y rendimiento - -YOLOv4 está diseñado para obtener una velocidad y precisión óptimas en la detección de objetos. La arquitectura de YOLOv4 incluye CSPDarknet53 como backbone, PANet como neck y YOLOv3 como cabeza de detección. Este diseño permite que YOLOv4 realice la detección de objetos a una velocidad impresionante, lo que lo hace adecuado para aplicaciones en tiempo real. YOLOv4 también sobresale en precisión, logrando resultados de vanguardia en los benchmarks de detección de objetos. - -## Ejemplos de uso - -Hasta el momento de escribir este documento, Ultralytics actualmente no admite modelos YOLOv4. Por lo tanto, cualquier usuario interesado en usar YOLOv4 deberá consultar directamente el repositorio de YOLOv4 en GitHub para obtener instrucciones de instalación y uso. - -Aquí hay un resumen breve de los pasos típicos que podrías seguir para usar YOLOv4: - -1. Visita el repositorio de YOLOv4 en GitHub: [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). - -2. Sigue las instrucciones proporcionadas en el archivo README para la instalación. Esto generalmente implica clonar el repositorio, instalar las dependencias necesarias y configurar las variables de entorno necesarias. - -3. Una vez que la instalación esté completa, puedes entrenar y usar el modelo según las instrucciones de uso proporcionadas en el repositorio. Esto normalmente implica preparar tu conjunto de datos, configurar los parámetros del modelo, entrenar el modelo y luego usar el modelo entrenado para realizar la detección de objetos. - -Ten en cuenta que los pasos específicos pueden variar dependiendo de tu caso de uso específico y del estado actual del repositorio de YOLOv4. Por lo tanto, se recomienda encarecidamente consultar directamente las instrucciones proporcionadas en el repositorio de YOLOv4 en GitHub. - -Lamentamos cualquier inconveniente que esto pueda causar y nos esforzaremos por actualizar este documento con ejemplos de uso para Ultralytics una vez que se implemente el soporte para YOLOv4. - -## Conclusión - -YOLOv4 es un modelo de detección de objetos potente y eficiente que logra un equilibrio entre velocidad y precisión. Su uso de características únicas y técnicas de bolsa de regalos durante el entrenamiento le permite realizar un excelente desempeño en tareas de detección de objetos en tiempo real. YOLOv4 puede ser entrenado y utilizado por cualquier persona con una GPU convencional, lo que lo hace accesible y práctico para una amplia gama de aplicaciones. - -## Citaciones y agradecimientos - -Nos gustaría reconocer a los autores de YOLOv4 por sus importantes contribuciones en el campo de la detección de objetos en tiempo real: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -El artículo original de YOLOv4 se puede encontrar en [arXiv](https://arxiv.org/abs/2004.10934). Los autores han puesto su trabajo a disposición del público, y el código se puede acceder en [GitHub](https://github.com/AlexeyAB/darknet). Apreciamos sus esfuerzos en el avance del campo y en hacer que su trabajo sea accesible para la comunidad en general. diff --git a/docs/es/models/yolov5.md b/docs/es/models/yolov5.md deleted file mode 100644 index 5ed1d85a9e4..00000000000 --- a/docs/es/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: Descubra YOLOv5u, una versión mejorada del modelo YOLOv5 con un mejor equilibrio entre precisión y velocidad, y numerosos modelos pre-entrenados para diversas tareas de detección de objetos. -keywords: YOLOv5u, detección de objetos, modelos pre-entrenados, Ultralytics, Inferencia, Validación, YOLOv5, YOLOv8, sin anclas, sin atención al objeto, aplicaciones en tiempo real, aprendizaje automático ---- - -# YOLOv5 - -## Resumen - -YOLOv5u representa un avance en las metodologías de detección de objetos. Originado a partir de la arquitectura fundamental del modelo [YOLOv5](https://github.com/ultralytics/yolov5) desarrollado por Ultralytics, YOLOv5u integra la división de la cabeza Ultralytics sin anclas y sin atención al objeto, una característica introducida previamente en los modelos [YOLOv8](yolov8.md). Esta adaptación perfecciona la arquitectura del modelo, resultando en un mejor equilibrio entre precisión y velocidad en tareas de detección de objetos. Con base en los resultados empíricos y sus características derivadas, YOLOv5u proporciona una alternativa eficiente para aquellos que buscan soluciones robustas tanto en investigación como en aplicaciones prácticas. - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## Características clave - -- **Cabeza dividida Ultralytics sin anclas:** Los modelos tradicionales de detección de objetos dependen de cajas de anclaje predefinidas para predecir la ubicación de los objetos. Sin embargo, YOLOv5u moderniza este enfoque. Al adoptar una cabeza Ultralytics dividida sin anclas, se garantiza un mecanismo de detección más flexible y adaptable, lo que en consecuencia mejora el rendimiento en diversos escenarios. - -- **Equilibrio óptimo entre precisión y velocidad:** La velocidad y la precisión suelen ser contrapuestas. Pero YOLOv5u desafía este equilibrio. Ofrece un balance calibrado, garantizando detecciones en tiempo real sin comprometer la precisión. Esta característica es especialmente valiosa para aplicaciones que requieren respuestas rápidas, como vehículos autónomos, robótica y análisis de video en tiempo real. - -- **Variedad de modelos pre-entrenados:** Entendiendo que diferentes tareas requieren diferentes herramientas, YOLOv5u proporciona una gran cantidad de modelos pre-entrenados. Ya sea que te enfoques en Inferencia, Validación o Entrenamiento, hay un modelo a la medida esperándote. Esta variedad asegura que no estés utilizando una solución genérica, sino un modelo específicamente ajustado para tu desafío único. - -## Tareas y Modos Soportados - -Los modelos YOLOv5u, con diferentes pesos pre-entrenados, sobresalen en las tareas de [Detección de Objetos](../tasks/detect.md). Soportan una amplia gama de modos que los hacen adecuados para diversas aplicaciones, desde el desarrollo hasta la implementación. - -| Tipo de Modelo | Pesos Pre-entrenados | Tarea | Inferencia | Validación | Entrenamiento | Exportación | -|----------------|-----------------------------------------------------------------------------------------------------------------------------|--------------------------------------------|------------|------------|---------------|-------------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [Detección de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Esta tabla proporciona una descripción detallada de las variantes de modelos YOLOv5u, destacando su aplicabilidad en tareas de detección de objetos y el soporte para varios modos operativos como [Inferencia](../modes/predict.md), [Validación](../modes/val.md), [Entrenamiento](../modes/train.md) y [Exportación](../modes/export.md). Este soporte integral asegura que los usuarios puedan aprovechar al máximo las capacidades de los modelos YOLOv5u en una amplia gama de escenarios de detección de objetos. - -## Métricas de Rendimiento - -!!! Rendimiento - - === "Detección" - - Consulta la [Documentación de Detección](https://docs.ultralytics.com/tasks/detect/) para obtener ejemplos de uso con estos modelos entrenados en [COCO](https://docs.ultralytics.com/datasets/detect/coco/), los cuales incluyen 80 clases pre-entrenadas. - - | Modelo | YAML | tamaño
(píxeles) | mAPval
50-95 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | parámetros
(M) | FLOPs
(B) | - |---------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|-----------------------|----------------------|--------------------------------|-------------------------------------|--------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43.0 | 120.7 | 1.27 | 9.1 | 24.0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49.0 | 233.9 | 1.86 | 25.1 | 64.2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52.2 | 408.4 | 2.50 | 53.2 | 135.0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53.2 | 763.2 | 3.81 | 97.2 | 246.4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42.1 | 211.0 | 1.83 | 4.3 | 7.8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48.6 | 422.6 | 2.34 | 15.3 | 24.6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53.6 | 810.9 | 4.36 | 41.2 | 65.7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55.7 | 1470.9 | 5.47 | 86.1 | 137.4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56.8 | 2436.5 | 8.98 | 155.4 | 250.7 | - -## Ejemplos de Uso - -Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia de YOLOv5. Para obtener documentación completa sobre estos y otros [modos](../modes/index.md), consulta las páginas de documentación de [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) y [Export](../modes/export.md). - -!!! Example "Ejemplo" - - === "Python" - - Los modelos pre-entrenados `*.pt` de PyTorch, así como los archivos de configuración `*.yaml`, se pueden pasar a la clase `YOLO()` para crear una instancia de modelo en Python: - - ```python - from ultralytics import YOLO - - # Cargar un modelo YOLOv5n pre-entrenado en COCO - modelo = YOLO('yolov5n.pt') - - # Mostrar información del modelo (opcional) - modelo.info() - - # Entrenar el modelo con el conjunto de datos de ejemplo COCO8 durante 100 épocas - resultados = modelo.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Ejecutar inferencia con el modelo YOLOv5n en la imagen 'bus.jpg' - resultados = modelo('path/to/bus.jpg') - ``` - - === "CLI" - - Hay comandos de CLI disponibles para ejecutar directamente los modelos: - - ```bash - # Cargar un modelo YOLOv5n pre-entrenado en COCO y entrenarlo con el conjunto de datos de ejemplo COCO8 durante 100 épocas - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Cargar un modelo YOLOv5n pre-entrenado en COCO y ejecutar inferencia en la imagen 'bus.jpg' - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## Citaciones y Reconocimientos - -Si utilizas YOLOv5 o YOLOv5u en tu investigación, por favor cita el repositorio de Ultralytics YOLOv5 de la siguiente manera: - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -Ten en cuenta que los modelos YOLOv5 se proporcionan bajo las licencias [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) y [Enterprise](https://ultralytics.com/license). diff --git a/docs/es/models/yolov6.md b/docs/es/models/yolov6.md deleted file mode 100644 index f65f37fcc82..00000000000 --- a/docs/es/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: Explora Meituan YOLOv6, un modelo de detección de objetos de última generación que logra un equilibrio entre velocidad y precisión. Sumérgete en características, modelos pre-entrenados y el uso de Python. -keywords: Meituan YOLOv6, detección de objetos, Ultralytics, documentación de YOLOv6, Concatenación Bidireccional, Entrenamiento con Anclas, modelos pre-entrenados, aplicaciones en tiempo real ---- - -# Meituan YOLOv6 - -## Visión general - -[Meituan](https://about.meituan.com/) YOLOv6 es un detector de objetos de última generación que ofrece un notable equilibrio entre velocidad y precisión, lo que lo convierte en una opción popular para aplicaciones en tiempo real. Este modelo presenta varias mejoras notables en su arquitectura y esquema de entrenamiento, que incluyen la implementación de un módulo de Concatenación Bidireccional (BiC), una estrategia de entrenamiento con anclas (AAT) y un diseño de columna vertebral y cuello mejorado para lograr una precisión de última generación en el conjunto de datos COCO. - -![Meituan YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![Ejemplo de imagen del modelo](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**Visión general de YOLOv6.** Diagrama de la arquitectura del modelo que muestra los componentes de la red redesdiseñados y las estrategias de entrenamiento que han llevado a mejoras significativas en el rendimiento. (a) El cuello de YOLOv6 (N y S se muestran). Señalar que, en M/L, RepBlocks es reemplazado por CSPStackRep. (b) La estructura de un módulo BiC. (c) Un bloque SimCSPSPPF. ([fuente](https://arxiv.org/pdf/2301.05586.pdf)). - -### Características clave - -- **Módulo de Concatenación Bidireccional (BiC):** YOLOv6 introduce un módulo de BiC en el cuello del detector, mejorando las señales de localización y ofreciendo mejoras en el rendimiento con una degradación de velocidad despreciable. -- **Estrategia de Entrenamiento con Anclas (AAT):** Este modelo propone AAT para disfrutar de los beneficios de los paradigmas basados en anclas y sin anclas sin comprometer la eficiencia de inferencia. -- **Diseño de Columna Vertebral y Cuello Mejorado:** Al profundizar en YOLOv6 para incluir otra etapa en la columna vertebral y el cuello, este modelo logra un rendimiento de última generación en el conjunto de datos COCO con una entrada de alta resolución. -- **Estrategia de Auto-Destilación:** Se implementa una nueva estrategia de auto-destilación para mejorar el rendimiento de los modelos más pequeños de YOLOv6, mejorando la rama de regresión auxiliar durante el entrenamiento y eliminándola durante la inferencia para evitar una marcada disminución de velocidad. - -## Métricas de rendimiento - -YOLOv6 proporciona varios modelos pre-entrenados con diferentes escalas: - -- YOLOv6-N: 37.5% de precisión promedio (AP) en COCO val2017 a 1187 FPS con la GPU NVIDIA Tesla T4. -- YOLOv6-S: 45.0% de AP a 484 FPS. -- YOLOv6-M: 50.0% de AP a 226 FPS. -- YOLOv6-L: 52.8% de AP a 116 FPS. -- YOLOv6-L6: Precisión de última generación en tiempo real. - -YOLOv6 también proporciona modelos cuantizados para diferentes precisiones y modelos optimizados para plataformas móviles. - -## Ejemplos de uso - -Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia con YOLOv6. Para obtener documentación completa sobre estos y otros [modos](../modes/index.md), consulta las páginas de documentación de [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) y [Export](../modes/export.md). - -!!! Example "Ejemplo" - - === "Python" - - Los modelos pre-entrenados en `*.pt` de PyTorch, así como los archivos de configuración `*.yaml`, se pueden pasar a la clase `YOLO()` para crear una instancia del modelo en Python: - - ```python - from ultralytics import YOLO - - # Construir un modelo YOLOv6n desde cero - modelo = YOLO('yolov6n.yaml') - - # Mostrar información del modelo (opcional) - modelo.info() - - # Entrenar el modelo en el conjunto de datos de ejemplo COCO8 durante 100 epochs - resultados = modelo.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Ejecutar inferencia con el modelo YOLOv6n en la imagen 'bus.jpg' - resultados = modelo('path/to/bus.jpg') - ``` - - === "CLI" - - Se dispone de comandos de línea de comandos (CLI) para ejecutar directamente los modelos: - - ```bash - # Construir un modelo YOLOv6n desde cero y entrenarlo en el conjunto de datos de ejemplo COCO8 durante 100 epochs - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # Construir un modelo YOLOv6n desde cero y ejecutar inferencia en la imagen 'bus.jpg' - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## Tareas y Modos Soportados - -La serie YOLOv6 ofrece una variedad de modelos, cada uno optimizado para [Detección de Objetos](../tasks/detect.md) de alto rendimiento. Estos modelos se adaptan a distintas necesidades computacionales y requisitos de precisión, lo que los hace versátiles para una amplia gama de aplicaciones. - -| Tipo de Modelo | Pesos Pre-entrenados | Tareas Soportadas | Inferencia | Validación | Entrenamiento | Exportación | -|----------------|----------------------|--------------------------------------------|------------|------------|---------------|-------------| -| YOLOv6-N | `yolov6-n.pt` | [Detección de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [Detección de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [Detección de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [Detección de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [Detección de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Esta tabla proporciona una descripción detallada de las variantes del modelo YOLOv6, destacando sus capacidades en tareas de detección de objetos y su compatibilidad con varios modos operativos como [Inferencia](../modes/predict.md), [Validación](../modes/val.md), [Entrenamiento](../modes/train.md) y [Exportación](../modes/export.md). Este soporte integral garantiza que los usuarios puedan aprovechar al máximo las capacidades de los modelos YOLOv6 en una amplia gama de escenarios de detección de objetos. - -## Citaciones y Agradecimientos - -Nos gustaría agradecer a los autores por sus importantes contribuciones en el campo de la detección de objetos en tiempo real: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - - Se puede encontrar el artículo original de YOLOv6 en [arXiv](https://arxiv.org/abs/2301.05586). Los autores han puesto su trabajo a disposición del público y el código fuente se puede acceder en [GitHub](https://github.com/meituan/YOLOv6). Agradecemos sus esfuerzos en avanzar en el campo y hacer que su trabajo sea accesible para la comunidad en general. diff --git a/docs/es/models/yolov7.md b/docs/es/models/yolov7.md deleted file mode 100644 index 64520439468..00000000000 --- a/docs/es/models/yolov7.md +++ /dev/null @@ -1,66 +0,0 @@ ---- -comments: true -description: Explora el YOLOv7, un detector de objetos en tiempo real. Comprende su velocidad superior, precisión impresionante y enfoque único en la optimización de entrenamiento de bolsas de características entrenables. -keywords: YOLOv7, detector de objetos en tiempo real, estado del arte, Ultralytics, conjunto de datos MS COCO, re-parametrización del modelo, asignación dinámica de etiquetas, escalado extendido, escalado compuesto ---- - -# YOLOv7: Bolsa de Características Entrenable - -YOLOv7 es un detector de objetos en tiempo real de última generación que supera a todos los detectores de objetos conocidos tanto en velocidad como en precisión en el rango de 5 FPS a 160 FPS. Tiene la mayor precisión (56.8% AP) entre todos los detectores de objetos en tiempo real conocidos con una velocidad de 30 FPS o superior en la GPU V100. Además, YOLOv7 supera a otros detectores de objetos como YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5 y muchos otros en cuanto a velocidad y precisión. El modelo se entrena desde cero utilizando el conjunto de datos MS COCO sin utilizar ningún otro conjunto de datos o pesos pre-entrenados. El código fuente de YOLOv7 está disponible en GitHub. - -![Comparación de YOLOv7 con detectores de objetos SOTA](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**Comparación de los detectores de objetos de estado del arte. -** Según los resultados en la Tabla 2, sabemos que el método propuesto tiene el mejor equilibrio entre velocidad y precisión de manera integral. Si comparamos YOLOv7-tiny-SiLU con YOLOv5-N (r6.1), nuestro método es 127 fps más rápido y un 10.7% más preciso en AP. Además, YOLOv7 tiene un AP del 51.4% a una velocidad de cuadro de 161 fps, mientras que PPYOLOE-L con el mismo AP tiene solo una velocidad de cuadro de 78 fps. En términos de uso de parámetros, YOLOv7 utiliza un 41% menos que PPYOLOE-L. Si comparamos YOLOv7-X con una velocidad de inferencia de 114 fps con YOLOv5-L (r6.1) con una velocidad de inferencia de 99 fps, YOLOv7-X puede mejorar el AP en un 3.9%. Si se compara YOLOv7-X con YOLOv5-X (r6.1) de una escala similar, la velocidad de inferencia de YOLOv7-X es 31 fps más rápida. Además, en términos de cantidad de parámetros y cálculos, YOLOv7-X reduce un 22% de los parámetros y un 8% de los cálculos en comparación con YOLOv5-X (r6.1), pero mejora el AP en un 2.2% ([Fuente](https://arxiv.org/pdf/2207.02696.pdf)). - -## Descripción general - -La detección de objetos en tiempo real es un componente importante en muchos sistemas de visión por computadora, incluyendo el seguimiento de múltiples objetos, conducción autónoma, robótica y análisis de imágenes médicas. En los últimos años, el desarrollo de la detección de objetos en tiempo real se ha centrado en el diseño de arquitecturas eficientes y en la mejora de la velocidad de inferencia de diversas CPUs, GPUs y unidades de procesamiento neural (NPUs). YOLOv7 es compatible tanto con GPU para dispositivos móviles como con GPU para dispositivos de escritorio, desde el borde hasta la nube. - -A diferencia de los detectores de objetos en tiempo real tradicionales que se centran en la optimización de la arquitectura, YOLOv7 introduce un enfoque en la optimización del proceso de entrenamiento. Esto incluye módulos y métodos de optimización diseñados para mejorar la precisión de la detección de objetos sin aumentar el costo de inferencia, un concepto conocido como "bolsas de características entrenables". - -## Características clave - -YOLOv7 introduce varias características clave: - -1. **Re-parametrización del modelo**: YOLOv7 propone un modelo re-parametrizado planificado, que es una estrategia aplicable a capas en diferentes redes con el concepto de propagación del gradiente. - -2. **Asignación dinámica de etiquetas**: El entrenamiento del modelo con múltiples capas de salida presenta un nuevo problema: "¿Cómo asignar objetivos dinámicos para las salidas de diferentes ramas?" Para resolver este problema, YOLOv7 introduce un nuevo método de asignación de etiquetas llamado asignación de etiquetas guiadas de manera gruesa a fina. - -3. **Escalado extendido y compuesto**: YOLOv7 propone métodos de "escalado extendido" y "escalado compuesto" para el detector de objetos en tiempo real que pueden utilizar eficazmente los parámetros y cálculos. - -4. **Eficiencia**: El método propuesto por YOLOv7 puede reducir eficazmente aproximadamente el 40% de los parámetros y el 50% de los cálculos del detector de objetos en tiempo real de última generación y tiene una velocidad de inferencia más rápida y una mayor precisión de detección. - -## Ejemplos de uso - -Hasta la fecha de redacción de este documento, Ultralytics no admite actualmente modelos YOLOv7. Por lo tanto, los usuarios interesados en utilizar YOLOv7 deberán consultar directamente el repositorio de GitHub de YOLOv7 para obtener instrucciones de instalación y uso. - -Aquí hay un resumen breve de los pasos típicos que podrías seguir para usar YOLOv7: - -1. Visita el repositorio de GitHub de YOLOv7: [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7). - -2. Sigue las instrucciones proporcionadas en el archivo README para la instalación. Esto generalmente implica clonar el repositorio, instalar las dependencias necesarias y configurar las variables de entorno necesarias. - -3. Una vez que la instalación esté completa, puedes entrenar y utilizar el modelo según las instrucciones de uso proporcionadas en el repositorio. Esto generalmente implica preparar tu conjunto de datos, configurar los parámetros del modelo, entrenar el modelo y luego utilizar el modelo entrenado para realizar la detección de objetos. - -Ten en cuenta que los pasos específicos pueden variar según tu caso de uso específico y el estado actual del repositorio YOLOv7. Por lo tanto, se recomienda encarecidamente consultar directamente las instrucciones proporcionadas en el repositorio de GitHub de YOLOv7. - -Lamentamos cualquier inconveniente que esto pueda causar y nos esforzaremos por actualizar este documento con ejemplos de uso para Ultralytics una vez que se implemente el soporte para YOLOv7. - -## Citaciones y Agradecimientos - -Nos gustaría agradecer a los autores de YOLOv7 por sus importantes contribuciones en el campo de la detección de objetos en tiempo real: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -El artículo original de YOLOv7 se puede encontrar en [arXiv](https://arxiv.org/pdf/2207.02696.pdf). Los autores han hecho su trabajo públicamente disponible y el código se puede acceder en [GitHub](https://github.com/WongKinYiu/yolov7). Agradecemos sus esfuerzos en el avance del campo y en hacer su trabajo accesible a la comunidad en general. diff --git a/docs/es/models/yolov8.md b/docs/es/models/yolov8.md deleted file mode 100644 index 4e299777f64..00000000000 --- a/docs/es/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: ¡Explora las emocionantes características de YOLOv8, la última versión de nuestro detector de objetos en tiempo real! Aprende cómo las arquitecturas avanzadas, los modelos preentrenados y el equilibrio óptimo entre precisión y velocidad hacen de YOLOv8 la elección perfecta para tus tareas de detección de objetos. -keywords: YOLOv8, Ultralytics, detector de objetos en tiempo real, modelos preentrenados, documentación, detección de objetos, serie YOLO, arquitecturas avanzadas, precisión, velocidad ---- - -# YOLOv8 - -## Descripción general - -YOLOv8 es la última versión de la serie YOLO de detectores de objetos en tiempo real, ofreciendo un rendimiento de vanguardia en términos de precisión y velocidad. Basándose en los avances de las versiones anteriores de YOLO, YOLOv8 presenta nuevas características y optimizaciones que lo convierten en una opción ideal para diversas tareas de detección de objetos en una amplia gama de aplicaciones. - -![Ultralytics YOLOv8](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## Características principales - -- **Arquitecturas avanzadas de columna vertebral y cuello:** YOLOv8 utiliza arquitecturas de columna vertebral y cuello de última generación, lo que resulta en una mejor extracción de características y rendimiento de detección de objetos. -- **Cabeza Ultralytics dividida sin anclaje:** YOLOv8 adopta una cabeza Ultralytics dividida sin anclaje, lo que contribuye a una mejor precisión y a un proceso de detección más eficiente en comparación con los enfoques basados en anclaje. -- **Equilibrio optimizado entre precisión y velocidad:** Con un enfoque en mantener un equilibrio óptimo entre precisión y velocidad, YOLOv8 es adecuado para tareas de detección de objetos en tiempo real en diversas áreas de aplicación. -- **Variedad de modelos preentrenados:** YOLOv8 ofrece una variedad de modelos preentrenados para adaptarse a diversas tareas y requisitos de rendimiento, lo que facilita encontrar el modelo adecuado para tu caso de uso específico. - -## Tareas y modos compatibles - -La serie YOLOv8 ofrece una amplia gama de modelos, cada uno especializado en tareas específicas en visión por computadora. Estos modelos están diseñados para adaptarse a diversos requisitos, desde la detección de objetos hasta tareas más complejas como la segmentación de instancias, la detección de poses/puntos clave y la clasificación. - -Cada variante de la serie YOLOv8 está optimizada para su respectiva tarea, garantizando un alto rendimiento y precisión. Además, estos modelos son compatibles con varios modos operativos, incluyendo [Inference](../modes/predict.md), [Validation](../modes/val.md), [Training](../modes/train.md) y [Export](../modes/export.md), lo que facilita su uso en diferentes etapas de implementación y desarrollo. - -| Modelo | Nombres de archivo | Tarea | Inferencia | Validación | Entrenamiento | Exportación | -|-------------|----------------------------------------------------------------------------------------------------------------|---------------------------------------------------|------------|------------|---------------|-------------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [Detección](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [Segmentación de instancias](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [Pose/Puntos clave](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [Clasificación](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -Esta tabla proporciona una descripción general de las variantes de modelos YOLOv8, resaltando su aplicabilidad en tareas específicas y su compatibilidad con varios modos operativos como Inferencia, Validación, Entrenamiento y Exportación. Muestra la versatilidad y robustez de la serie YOLOv8, haciéndolos adecuados para una variedad de aplicaciones en visión por computadora. - -## Métricas de rendimiento - -!!! Rendimiento - - === "Detección (COCO)" - - Consulta la [documentación de Detección](https://docs.ultralytics.com/tasks/detect/) para ejemplos de uso con estos modelos entrenados en [COCO](https://docs.ultralytics.com/datasets/detect/coco/), que incluyen 80 clases preentrenadas. - - | Modelo | tamaño
(píxeles) | mAPval
50-95 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | parámetros
(M) | FLOPs
(B) | - | ------------------------------------------------------------------------------------ | ----------------------- | --------------------- | ------------------------------ | --------------------------------------- | ---------------------- | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - - === "Detección (Open Images V7)" - - Consulta la [documentación de Detección](https://docs.ultralytics.com/tasks/detect/) para ejemplos de uso con estos modelos entrenados en [Open Image V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/), que incluyen 600 clases preentrenadas. - - | Modelo | tamaño
(píxeles) | mAPval
50-95 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | parámetros
(M) | FLOPs
(B) | - | ----------------------------------------------------------------------------------------- | ----------------------- | --------------------- | -------------------------------- | --------------------------------------- | ---------------------- | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 | - - === "Segmentación (COCO)" - - Consulta la [documentación de Segmentación](https://docs.ultralytics.com/tasks/segment/) para ejemplos de uso con estos modelos entrenados en [COCO](https://docs.ultralytics.com/datasets/segment/coco/), que incluyen 80 clases preentrenadas. - - | Modelo | tamaño
(píxeles) | mAPcaja
50-95 | mAPmáscara
50-95 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | parámetros
(M) | FLOPs
(B) | - | -------------------------------------------------------------------------------------------- | ----------------------- | ---------------------- | ----------------------- | -------------------------------- | --------------------------------------- | ---------------------- | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - - === "Clasificación (ImageNet)" - - Consulta la [documentación de Clasificación](https://docs.ultralytics.com/tasks/classify/) para ejemplos de uso con estos modelos entrenados en [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/), que incluyen 1000 clases preentrenadas. - - | Modelo | tamaño
(píxeles) | acc
top1 | acc
top5 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | parámetros
(M) | FLOPs
(B) a 640 | - | -------------------------------------------------------------------------------------------- | ----------------------- | ---------------- | ---------------- | -------------------------------- | --------------------------------------- | ---------------------- | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - - === "Pose (COCO)" - - Consulta la [documentación de Estimación de Poses](https://docs.ultralytics.com/tasks/segment/) para ejemplos de uso con estos modelos entrenados en [COCO](https://docs.ultralytics.com/datasets/pose/coco/), que incluyen 1 clase preentrenada, 'person'. - - | Modelo | tamaño
(píxeles) | mAPpose
50-95 | mAPpose
50 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | parámetros
(M) | FLOPs
(B) | - | ---------------------------------------------------------------------------------------------------- | ----------------------- | --------------------- | ------------------ | -------------------------------- | --------------------------------------- | ---------------------- | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -## Ejemplos de uso - -Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia con YOLOv8. Para obtener documentación completa sobre estos y otros [modos](../modes/index.md), consulta las páginas de documentación de [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) y [Export](../modes/export.md). - -Ten en cuenta que el siguiente ejemplo es para modelos de detección YOLOv8. Para ver las tareas adicionales compatibles, consulta la documentación de [Segment](../tasks/segment.md), [Classify](../tasks/classify.md) y [Pose](../tasks/pose.md). - -!!! Example "Ejemplo" - - === "Python" - - Los modelos preentrenados en PyTorch `*.pt`, así como los archivos de configuración `*.yaml`, se pueden pasar a la clase `YOLO()` para crear una instancia del modelo en Python: - - ```python - from ultralytics import YOLO - - # Carga un modelo YOLOv8n preentrenado en COCO - model = YOLO('yolov8n.pt') - - # Muestra información del modelo (opcional) - model.info() - - # Entrena el modelo en el conjunto de datos de ejemplo COCO8 durante 100 épocas - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Realiza inferencia con el modelo YOLOv8n en la imagen 'bus.jpg' - results = model('ruta/a/bus.jpg') - ``` - - === "CLI" - - Hay comandos de CLI disponibles para ejecutar directamente los modelos: - - ```bash - # Carga un modelo YOLOv8n preentrenado en COCO y entrénalo en el conjunto de datos de ejemplo COCO8 durante 100 épocas - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Carga un modelo YOLOv8n preentrenado en COCO y realiza inferencia en la imagen 'bus.jpg' - yolo predict model=yolov8n.pt source=ruta/a/bus.jpg - ``` - -## Citas y reconocimientos - -Si utilizas el modelo YOLOv8 u otro software de este repositorio en tu trabajo, por favor cítalo utilizando el siguiente formato: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - - Ten en cuenta que el DOI está pendiente y se agregará a la cita una vez que esté disponible. Los modelos de YOLOv8 se proporcionan bajo las licencias [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) y [Enterprise](https://ultralytics.com/license). diff --git a/docs/es/modes/benchmark.md b/docs/es/modes/benchmark.md deleted file mode 100644 index 3a165da65bb..00000000000 --- a/docs/es/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: Aprenda cómo perfilar la velocidad y exactitud de YOLOv8 en varios formatos de exportación; obtenga perspectivas sobre las métricas mAP50-95, accuracy_top5 y más. -keywords: Ultralytics, YOLOv8, benchmarking, perfilado de velocidad, perfilado de exactitud, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, formatos de exportación YOLO ---- - -# Model Benchmarking con Ultralytics YOLO - -Ecosistema e integraciones de Ultralytics YOLO - -## Introducción - -Una vez que su modelo está entrenado y validado, el siguiente paso lógico es evaluar su rendimiento en varios escenarios del mundo real. El modo benchmark en Ultralytics YOLOv8 cumple con este propósito proporcionando un marco sólido para valorar la velocidad y exactitud de su modelo a través de una gama de formatos de exportación. - -## ¿Por Qué Es Crucial el Benchmarking? - -- **Decisiones Informadas:** Obtenga perspectivas sobre el equilibrio entre velocidad y precisión. -- **Asignación de Recursos:** Entienda cómo diferentes formatos de exportación se desempeñan en diferentes hardware. -- **Optimización:** Aprenda cuál formato de exportación ofrece el mejor rendimiento para su caso de uso específico. -- **Eficiencia de Costo:** Haga un uso más eficiente de los recursos de hardware basado en los resultados del benchmark. - -### Métricas Clave en el Modo Benchmark - -- **mAP50-95:** Para detección de objetos, segmentación y estimación de pose. -- **accuracy_top5:** Para clasificación de imágenes. -- **Tiempo de Inferencia:** Tiempo tomado para cada imagen en milisegundos. - -### Formatos de Exportación Soportados - -- **ONNX:** Para un rendimiento óptimo de CPU -- **TensorRT:** Para la máxima eficiencia de GPU -- **OpenVINO:** Para la optimización en hardware de Intel -- **CoreML, TensorFlow SavedModel y Más:** Para necesidades de despliegue diversas. - -!!! Tip "Consejo" - - * Exporte a ONNX o OpenVINO para acelerar la velocidad de CPU hasta 3 veces. - * Exporte a TensorRT para acelerar la velocidad de GPU hasta 5 veces. - -## Ejemplos de Uso - -Ejecute benchmarks de YOLOv8n en todos los formatos de exportación soportados incluyendo ONNX, TensorRT, etc. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # Benchmark en GPU - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## Argumentos - -Argumentos como `model`, `data`, `imgsz`, `half`, `device`, y `verbose` proporcionan a los usuarios la flexibilidad de ajustar los benchmarks a sus necesidades específicas y comparar el rendimiento de diferentes formatos de exportación con facilidad. - -| Clave | Valor | Descripción | -|-----------|---------|----------------------------------------------------------------------------------------------------------| -| `model` | `None` | ruta al archivo del modelo, es decir, yolov8n.pt, yolov8n.yaml | -| `data` | `None` | ruta a YAML que referencia el conjunto de datos de benchmarking (bajo la etiqueta `val`) | -| `imgsz` | `640` | tamaño de imagen como escalar o lista (h, w), es decir, (640, 480) | -| `half` | `False` | cuantificación FP16 | -| `int8` | `False` | cuantificación INT8 | -| `device` | `None` | dispositivo en el que se ejecutará, es decir, dispositivo cuda=0 o dispositivo=0,1,2,3 o dispositivo=cpu | -| `verbose` | `False` | no continuar en caso de error (bool), o umbral de piso de valor (float) | - -## Formatos de Exportación - -Los benchmarks intentarán ejecutarse automáticamente en todos los posibles formatos de exportación a continuación. - -| Formato | Argumento `format` | Modelo | Metadatos | Argumentos | -|--------------------------------------------------------------------|--------------------|---------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Vea los detalles completos de `export` en la página [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/es/modes/export.md b/docs/es/modes/export.md deleted file mode 100644 index e701ccb268e..00000000000 --- a/docs/es/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: Guía paso a paso sobre cómo exportar sus modelos YOLOv8 a varios formatos como ONNX, TensorRT, CoreML y más para su despliegue. ¡Explora ahora!. -keywords: YOLO, YOLOv8, Ultralytics, Exportación de modelos, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, exportar modelo ---- - -# Exportación de Modelos con Ultralytics YOLO - -Ecosistema de Ultralytics YOLO e integraciones - -## Introducción - -El objetivo final de entrenar un modelo es desplegarlo para aplicaciones en el mundo real. El modo exportación en Ultralytics YOLOv8 ofrece una gama versátil de opciones para exportar tu modelo entrenado a diferentes formatos, haciéndolo desplegable en varias plataformas y dispositivos. Esta guía integral pretende guiarte a través de los matices de la exportación de modelos, mostrando cómo lograr la máxima compatibilidad y rendimiento. - -

-
- -
- Ver: Cómo Exportar un Modelo Entrenado Personalizado de Ultralytics YOLOv8 y Ejecutar Inferencia en Vivo en la Webcam. -

- -## ¿Por Qué Elegir el Modo Exportación de YOLOv8? - -- **Versatilidad:** Exporta a múltiples formatos incluyendo ONNX, TensorRT, CoreML y más. -- **Rendimiento:** Acelera hasta 5 veces la velocidad en GPU con TensorRT y 3 veces en CPU con ONNX o OpenVINO. -- **Compatibilidad:** Hacer que tu modelo sea universalmente desplegable en numerosos entornos de hardware y software. -- **Facilidad de Uso:** Interfaz de línea de comandos simple y API de Python para una exportación de modelos rápida y sencilla. - -### Características Clave del Modo de Exportación - -Aquí tienes algunas de las funcionalidades destacadas: - -- **Exportación con Un Solo Clic:** Comandos simples para exportar a diferentes formatos. -- **Exportación por Lotes:** Exporta modelos capaces de inferencia por lotes. -- **Inferencia Optimizada:** Los modelos exportados están optimizados para tiempos de inferencia más rápidos. -- **Vídeos Tutoriales:** Guías y tutoriales en profundidad para una experiencia de exportación fluida. - -!!! Tip "Consejo" - - * Exporta a ONNX u OpenVINO para acelerar la CPU hasta 3 veces. - * Exporta a TensorRT para acelerar la GPU hasta 5 veces. - -## Ejemplos de Uso - -Exporta un modelo YOLOv8n a un formato diferente como ONNX o TensorRT. Consulta la sección Argumentos más abajo para una lista completa de argumentos de exportación. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carga un modelo - model = YOLO('yolov8n.pt') # carga un modelo oficial - model = YOLO('path/to/best.pt') # carga un modelo entrenado personalizado - - # Exporta el modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # exporta modelo oficial - yolo export model=path/to/best.pt format=onnx # exporta modelo entrenado personalizado - ``` - -## Argumentos - -Los ajustes de exportación para modelos YOLO se refieren a las diversas configuraciones y opciones utilizadas para guardar o exportar el modelo para su uso en otros entornos o plataformas. Estos ajustes pueden afectar el rendimiento del modelo, su tamaño y su compatibilidad con diferentes sistemas. Algunos ajustes comunes de exportación de YOLO incluyen el formato del archivo del modelo exportado (p. ej., ONNX, TensorFlow SavedModel), el dispositivo en el que se ejecutará el modelo (p. ej., CPU, GPU) y la presencia de características adicionales como máscaras o múltiples etiquetas por caja. Otros factores que pueden afectar el proceso de exportación incluyen la tarea específica para la que se está utilizando el modelo y los requisitos o limitaciones del entorno o plataforma objetivo. Es importante considerar y configurar cuidadosamente estos ajustes para asegurar que el modelo exportado está optimizado para el caso de uso previsto y se pueda utilizar eficazmente en el entorno objetivo. - -| Llave | Valor | Descripción | -|-------------|-----------------|-----------------------------------------------------------------| -| `format` | `'torchscript'` | formato al que exportar | -| `imgsz` | `640` | tamaño de imagen como escalar o lista (h, w), p. ej. (640, 480) | -| `keras` | `False` | usu Keras para la exportación de TF SavedModel | -| `optimize` | `False` | TorchScript: optimizar para móvil | -| `half` | `False` | cuantificación FP16 | -| `int8` | `False` | cuantificación INT8 | -| `dynamic` | `False` | ONNX/TensorRT: ejes dinámicos | -| `simplify` | `False` | ONNX/TensorRT: simplificar modelo | -| `opset` | `None` | ONNX: versión de opset (opcional, por defecto la más reciente) | -| `workspace` | `4` | TensorRT: tamaño del espacio de trabajo (GB) | -| `nms` | `False` | CoreML: añadir NMS | - -## Formatos de Exportación - -Los formatos de exportación disponibles de YOLOv8 están en la tabla a continuación. Puedes exportar a cualquier formato usando el argumento `format`, por ejemplo, `format='onnx'` o `format='engine'`. - -| Formato | Argumento `format` | Modelo | Metadatos | Argumentos | -|--------------------------------------------------------------------|--------------------|---------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/es/modes/index.md b/docs/es/modes/index.md deleted file mode 100644 index 1c9b408b047..00000000000 --- a/docs/es/modes/index.md +++ /dev/null @@ -1,73 +0,0 @@ ---- -comments: true -description: Desde el entrenamiento hasta el seguimiento, aprovecha al máximo YOLOv8 con Ultralytics. Obtén información y ejemplos para cada modo compatible incluyendo validación, exportación y evaluación comparativa. -keywords: Ultralytics, YOLOv8, Aprendizaje Automático, Detección de Objetos, Entrenamiento, Validación, Predicción, Exportación, Seguimiento, Benchmarking ---- - -# Modos de Ultralytics YOLOv8 - -Ecosistema Ultralytics YOLO e integraciones - -## Introducción - -Ultralytics YOLOv8 no es solo otro modelo de detección de objetos; es un marco de trabajo versátil diseñado para cubrir todo el ciclo de vida de los modelos de aprendizaje automático, desde la ingesta de datos y el entrenamiento del modelo hasta la validación, implementación y seguimiento en el mundo real. Cada modo sirve para un propósito específico y está diseñado para ofrecerte la flexibilidad y eficiencia necesarias para diferentes tareas y casos de uso. - -

-
- -
- Mira: Tutorial de Modos Ultralytics: Entrenar, Validar, Predecir, Exportar y Hacer Benchmarking. -

- -### Modos a Primera Vista - -Comprender los diferentes **modos** que soporta Ultralytics YOLOv8 es crítico para sacar el máximo provecho a tus modelos: - -- **Modo Entrenar (Train)**: Afina tu modelo en conjuntos de datos personalizados o pre-cargados. -- **Modo Validar (Val)**: Un punto de control post-entrenamiento para validar el rendimiento del modelo. -- **Modo Predecir (Predict)**: Libera el poder predictivo de tu modelo en datos del mundo real. -- **Modo Exportar (Export)**: Prepara tu modelo para la implementación en varios formatos. -- **Modo Seguir (Track)**: Extiende tu modelo de detección de objetos a aplicaciones de seguimiento en tiempo real. -- **Modo Benchmark (Benchmark)**: Analiza la velocidad y precisión de tu modelo en diversos entornos de implementación. - -Esta guía completa tiene como objetivo proporcionarte una visión general y conocimientos prácticos de cada modo, ayudándote a aprovechar todo el potencial de YOLOv8. - -## [Entrenar (Train)](train.md) - -El modo Entrenar se utiliza para entrenar un modelo YOLOv8 en un conjunto de datos personalizado. En este modo, el modelo se entrena utilizando el conjunto de datos y los hiperparámetros especificados. El proceso de entrenamiento implica optimizar los parámetros del modelo para que pueda predecir con precisión las clases y ubicaciones de los objetos en una imagen. - -[Ejemplos de Entrenamiento](train.md){ .md-button } - -## [Validar (Val)](val.md) - -El modo Validar se usa para validar un modelo YOLOv8 después de haber sido entrenado. En este modo, el modelo se evalúa en un conjunto de validación para medir su precisión y rendimiento de generalización. Este modo se puede usar para ajustar los hiperparámetros del modelo y mejorar su rendimiento. - -[Ejemplos de Validación](val.md){ .md-button } - -## [Predecir (Predict)](predict.md) - -El modo Predecir se utiliza para realizar predicciones usando un modelo YOLOv8 entrenado en imágenes o videos nuevos. En este modo, el modelo se carga desde un archivo de punto de control, y el usuario puede proporcionar imágenes o videos para realizar inferencias. El modelo predice las clases y ubicaciones de los objetos en las imágenes o videos de entrada. - -[Ejemplos de Predicción](predict.md){ .md-button } - -## [Exportar (Export)](export.md) - -El modo Exportar se utiliza para exportar un modelo YOLOv8 a un formato que se pueda usar para la implementación. En este modo, el modelo se convierte a un formato que puede ser utilizado por otras aplicaciones de software o dispositivos de hardware. Este modo es útil al implementar el modelo en entornos de producción. - -[Ejemplos de Exportación](export.md){ .md-button } - -## [Seguir (Track)](track.md) - -El modo Seguir se usa para rastrear objetos en tiempo real utilizando un modelo YOLOv8. En este modo, el modelo se carga desde un archivo de punto de control, y el usuario puede proporcionar un flujo de video en vivo para realizar seguimiento de objetos en tiempo real. Este modo es útil para aplicaciones como sistemas de vigilancia o coches autónomos. - -[Ejemplos de Seguimiento](track.md){ .md-button } - -## [Benchmark (Benchmark)](benchmark.md) - -El modo Benchmark se utiliza para perfilar la velocidad y precisión de varios formatos de exportación de YOLOv8. Los benchmarks proporcionan información sobre el tamaño del formato de exportación, sus métricas de `mAP50-95` (para detección de objetos, segmentación y pose) o métricas de `accuracy_top5` (para clasificación), y el tiempo de inferencia en milisegundos por imagen a través de varios formatos de exportación como ONNX, OpenVINO, TensorRT y otros. Esta información puede ayudar a los usuarios a elegir el formato de exportación óptimo para su caso de uso específico, basado en sus requerimientos de velocidad y precisión. - -[Ejemplos de Benchmarking](benchmark.md){ .md-button } diff --git a/docs/es/modes/predict.md b/docs/es/modes/predict.md deleted file mode 100644 index 6af71036815..00000000000 --- a/docs/es/modes/predict.md +++ /dev/null @@ -1,227 +0,0 @@ ---- -comments: true -description: Descubra cómo utilizar el modo predictivo de YOLOv8 para diversas tareas. Aprenda acerca de diferentes fuentes de inferencia como imágenes, videos y formatos de datos. -keywords: Ultralytics, YOLOv8, modo predictivo, fuentes de inferencia, tareas de predicción, modo de transmisión, procesamiento de imágenes, procesamiento de videos, aprendizaje automático, IA ---- - -# Predicción del Modelo con YOLO de Ultralytics - -Ecosistema de YOLO de Ultralytics e integraciones - -## Introducción - -En el mundo del aprendizaje automático y la visión por computadora, el proceso de dar sentido a los datos visuales se denomina 'inferencia' o 'predicción'. YOLOv8 de Ultralytics ofrece una característica poderosa conocida como **modo predictivo** que está diseñada para inferencias de alto rendimiento y en tiempo real en una amplia gama de fuentes de datos. - -

-
- -
- Ver: Cómo Extraer las Salidas del Modelo YOLOv8 de Ultralytics para Proyectos Personalizados. -

- -## Aplicaciones en el Mundo Real - -| Manufactura | Deportes | Seguridad | -|:-----------------------------------------------------------------------------------------------------------------------------------------:|:--------------------------------------------------------------------------------------------------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------:| -| ![Detección de Repuestos de Vehículos](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1) | ![Detección de Jugadores de Fútbol](https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442) | ![Detección de Caídas de Personas](https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43) | -| Detección de Repuestos de Vehículos | Detección de Jugadores de Fútbol | Detección de Caídas de Personas | - -## ¿Por Qué Utilizar YOLO de Ultralytics para la Inferencia? - -Estas son algunas razones para considerar el modo predictivo de YOLOv8 para sus necesidades de inferencia: - -- **Versatilidad:** Capaz de realizar inferencias en imágenes, videos e incluso transmisiones en vivo. -- **Rendimiento:** Diseñado para procesamiento en tiempo real y de alta velocidad sin sacrificar precisión. -- **Facilidad de Uso:** Interfaces de Python y CLI intuitivas para una rápida implementación y pruebas. -- **Alta Personalización:** Diversos ajustes y parámetros para afinar el comportamiento de inferencia del modelo según sus requisitos específicos. - -### Características Principales del Modo Predictivo - -El modo predictivo de YOLOv8 está diseñado para ser robusto y versátil, y cuenta con: - -- **Compatibilidad con Múltiples Fuentes de Datos:** Ya sea que sus datos estén en forma de imágenes individuales, una colección de imágenes, archivos de video o transmisiones de video en tiempo real, el modo predictivo le tiene cubierto. -- **Modo de Transmisión:** Utilice la función de transmisión para generar un generador eficiente de memoria de objetos `Results`. Active esto configurando `stream=True` en el método de llamada del predictor. -- **Procesamiento por Lotes:** La capacidad de procesar múltiples imágenes o fotogramas de video en un solo lote, acelerando aún más el tiempo de inferencia. -- **Amigable para la Integración:** Se integra fácilmente con pipelines de datos existentes y otros componentes de software, gracias a su API flexible. - -Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results` de Python, o un generador de objetos `Results` de Python eficiente en memoria cuando se pasa `stream=True` al modelo durante la inferencia: - -!!! Example "Predict" - - === "Devolver una lista con `stream=False`" - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.pt') # modelo YOLOv8n preentrenado - - # Ejecutar inferencia por lotes en una lista de imágenes - results = model(['im1.jpg', 'im2.jpg']) # devuelve una lista de objetos Results - - # Procesar lista de resultados - for result in results: - boxes = result.boxes # Objeto Boxes para salidas de bbox - masks = result.masks # Objeto Masks para salidas de máscaras de segmentación - keypoints = result.keypoints # Objeto Keypoints para salidas de postura - probs = result.probs # Objeto Probs para salidas de clasificación - ``` - - === "Devolver un generador con `stream=True`" - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.pt') # modelo YOLOv8n preentrenado - - # Ejecutar inferencia por lotes en una lista de imágenes - results = model(['im1.jpg', 'im2.jpg'], stream=True) # devuelve un generador de objetos Results - - # Procesar generador de resultados - for result in results: - boxes = result.boxes # Objeto Boxes para salidas de bbox - .masks = result.masks # Objeto Masks para salidas de máscaras de segmentación - keypoints = result.keypoints # Objeto Keypoints para salidas de postura - probs = result.probs # Objeto Probs para salidas de clasificación - ``` - -## Fuentes de Inferencia - -YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia, como se muestra en la tabla a continuación. Las fuentes incluyen imágenes estáticas, transmisiones de video y varios formatos de datos. La tabla también indica si cada fuente se puede utilizar en modo de transmisión con el argumento `stream=True` ✅. El modo de transmisión es beneficioso para procesar videos o transmisiones en vivo ya que crea un generador de resultados en lugar de cargar todos los fotogramas en la memoria. - -!!! Tip "Consejo" - - Utilice `stream=True` para procesar videos largos o conjuntos de datos grandes para gestionar eficientemente la memoria. Cuando `stream=False`, los resultados de todos los fotogramas o puntos de datos se almacenan en la memoria, lo que puede aumentar rápidamente y causar errores de memoria insuficiente para entradas grandes. En contraste, `stream=True` utiliza un generador, que solo mantiene los resultados del fotograma o punto de datos actual en la memoria, reduciendo significativamente el consumo de memoria y previniendo problemas de falta de memoria. - -| Fuente | Argumento | Tipo | Notas | -|---------------------|--------------------------------------------|----------------|---------------------------------------------------------------------------------------------------------------------------------| -| imagen | `'image.jpg'` | `str` o `Path` | Archivo único de imagen. | -| URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | URL a una imagen. | -| captura de pantalla | `'screen'` | `str` | Captura una captura de pantalla. | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | Formato HWC con canales RGB. | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | Formato HWC con canales BGR `uint8 (0-255)`. | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | Formato HWC con canales BGR `uint8 (0-255)`. | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | Formato BCHW con canales RGB `float32 (0.0-1.0)`. | -| CSV | `'sources.csv'` | `str` o `Path` | Archivo CSV que contiene rutas a imágenes, videos o directorios. | -| video ✅ | `'video.mp4'` | `str` o `Path` | Archivo de video en formatos como MP4, AVI, etc. | -| directorio ✅ | `'path/'` | `str` o `Path` | Ruta a un directorio que contiene imágenes o videos. | -| glob ✅ | `'path/*.jpg'` | `str` | Patrón glob para coincidir con múltiples archivos. Utilice el carácter `*` como comodín. | -| YouTube ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | URL a un video de YouTube. | -| transmisión ✅ | `'rtsp://example.com/media.mp4'` | `str` | URL para protocolos de transmisión como RTSP, RTMP, TCP o una dirección IP. | -| multi-transmisión ✅ | `'list.streams'` | `str` o `Path` | Archivo de texto `*.streams` con una URL de transmisión por fila, es decir, 8 transmisiones se ejecutarán con tamaño de lote 8. | - -A continuación se muestran ejemplos de código para usar cada tipo de fuente: - -!!! Example "Fuentes de predicción" - - === "imagen" - Ejecute inferencia en un archivo de imagen. - ```python - from ultralytics import YOLO - - # Cargar el modelo YOLOv8n preentrenado - model = YOLO('yolov8n.pt') - - # Definir la ruta al archivo de imagen - source = 'ruta/a/imagen.jpg' - - # Ejecutar inferencia en la fuente - results = model(source) # lista de objetos Results - ``` - - === "captura de pantalla" - Ejecute inferencia en el contenido actual de la pantalla como captura de pantalla. - ```python - from ultralytics import YOLO - - # Cargar el modelo YOLOv8n preentrenado - model = YOLO('yolov8n.pt') - - # Definir captura de pantalla actual como fuente - source = 'screen' - - # Ejecutar inferencia en la fuente - results = model(source) # lista de objetos Results - ``` - - === "URL" - Ejecute inferencia en una imagen o video alojados remotamente a través de URL. - ```python - from ultralytics import YOLO - - # Cargar el modelo YOLOv8n preentrenado - model = YOLO('yolov8n.pt') - - # Definir URL remota de imagen o video - source = 'https://ultralytics.com/images/bus.jpg' - - # Ejecutar inferencia en la fuente - results = model(source) # lista de objetos Results - ``` - - === "PIL" - Ejecute inferencia en una imagen abierta con la Biblioteca de Imágenes de Python (PIL). - ```python - from PIL import Image - from ultralytics import YOLO - - # Cargar el modelo YOLOv8n preentrenado - model = YOLO('yolov8n.pt') - - # Abrir una imagen usando PIL - source = Image.open('ruta/a/imagen.jpg') - - # Ejecutar inferencia en la fuente - results = model(source) # lista de objetos Results - ``` - - === "OpenCV" - Ejecute inferencia en una imagen leída con OpenCV. - ```python - import cv2 - from ultralytics import YOLO - - # Cargar el modelo YOLOv8n preentrenado - model = YOLO('yolov8n.pt') - - # Leer una imagen usando OpenCV - source = cv2.imread('ruta/a/imagen.jpg') - - # Ejecutar inferencia en la fuente - results = model(source) # lista de objetos Results - ``` - - === "numpy" - Ejecute inferencia en una imagen representada como un array de numpy. - ```python - import numpy as np - from ultralytics import YOLO - - # Cargar el modelo YOLOv8n preentrenado - model = YOLO('yolov8n.pt') - - # Crear un array aleatorio de numpy con forma HWC (640, 640, 3) con valores en rango [0, 255] y tipo uint8 - source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') - - # Ejecutar inferencia en la fuente - results = model(source) # lista de objetos Results - ``` - - === "torch" - Ejecute inferencia en una imagen representada como un tensor de PyTorch. - ```python - import torch - from ultralytics import YOLO - - # Cargar el modelo YOLOv8n preentrenado - model = YOLO('yolov8n.pt') - - # Crear un tensor aleatorio de torch con forma BCHW (1, 3, 640, 640) con valores en rango [0, 1] y tipo float32 - source = torch.rand(1, 3, 640, 640, dtype=torch.float32) - - # Ejecutar inferencia en la fuente - results = model(source) # lista de objetos Results - ``` diff --git a/docs/es/modes/track.md b/docs/es/modes/track.md deleted file mode 100644 index e7b514d18af..00000000000 --- a/docs/es/modes/track.md +++ /dev/null @@ -1,200 +0,0 @@ ---- -comments: true -description: Aprende a utilizar Ultralytics YOLO para el seguimiento de objetos en flujos de video. Guías para usar diferentes rastreadores y personalizar la configuración del rastreador. -keywords: Ultralytics, YOLO, seguimiento de objetos, flujos de video, BoT-SORT, ByteTrack, guía de Python, guía de CLI ---- - -# Seguimiento de Múltiples Objetos con Ultralytics YOLO - -Ejemplos de seguimiento de múltiples objetos - -El seguimiento de objetos en el ámbito del análisis de video es una tarea crítica que no solo identifica la ubicación y clase de objetos dentro del cuadro, sino que también mantiene una ID única para cada objeto detectado a medida que avanza el video. Las aplicaciones son ilimitadas, desde vigilancia y seguridad hasta análisis deportivos en tiempo real. - -## ¿Por Qué Elegir Ultralytics YOLO para el Seguimiento de Objetos? - -La salida de los rastreadores de Ultralytics es consistente con la detección de objetos estándar, pero con el valor añadido de las IDs de objetos. Esto facilita el seguimiento de objetos en flujos de video y la realización de análisis posteriores. Aquí tienes algunas razones por las que deberías considerar usar Ultralytics YOLO para tus necesidades de seguimiento de objetos: - -- **Eficiencia:** Procesa flujos de video en tiempo real sin comprometer la precisión. -- **Flexibilidad:** Soporta múltiples algoritmos de seguimiento y configuraciones. -- **Facilidad de Uso:** API simple de Python y opciones CLI para una rápida integración y despliegue. -- **Personalización:** Fácil de usar con modelos YOLO entrenados a medida, permitiendo la integración en aplicaciones específicas del dominio. - -

-
- -
- Ver: Detección de Objetos y Seguimiento con Ultralytics YOLOv8. -

- -## Aplicaciones en el Mundo Real - -| Transporte | Venta al por Menor | Acuicultura | -|:------------------------------------------------------------------------------------------------------------------------------:|:-----------------------------------------------------------------------------------------------------------------------------:|:--------------------------------------------------------------------------------------------------------------------------:| -| ![Seguimiento de Vehículos](https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab) | ![Seguimiento de Personas](https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527) | ![Seguimiento de Peces](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142) | -| Seguimiento de Vehículos | Seguimiento de Personas | Seguimiento de Peces | - -## Características a Simple Vista - -Ultralytics YOLO extiende sus características de detección de objetos para proporcionar un seguimiento de objetos robusto y versátil: - -- **Seguimiento en Tiempo Real:** Rastrea sin problemas los objetos en videos de alta frecuencia de cuadros. -- **Soporte de Múltiples Rastreadores:** Elige entre una variedad de algoritmos de seguimiento establecidos. -- **Configuraciones de Rastreador Personalizables:** Adapta el algoritmo de seguimiento para satisfacer requisitos específicos ajustando diversos parámetros. - -## Rastreadores Disponibles - -Ultralytics YOLO soporta los siguientes algoritmos de seguimiento. Pueden ser habilitados pasando el archivo de configuración YAML relevante como `tracker=tracker_type.yaml`: - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - Usa `botsort.yaml` para habilitar este rastreador. -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - Usa `bytetrack.yaml` para habilitar este rastreador. - -El rastreador predeterminado es BoT-SORT. - -## Seguimiento - -Para ejecutar el rastreador en flujos de video, usa un modelo Detect, Segment o Pose entrenado tales como YOLOv8n, YOLOv8n-seg y YOLOv8n-pose. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo oficial o personalizado - model = YOLO('yolov8n.pt') # Cargar un modelo oficial Detect - model = YOLO('yolov8n-seg.pt') # Cargar un modelo oficial Segment - model = YOLO('yolov8n-pose.pt') # Cargar un modelo oficial Pose - model = YOLO('path/to/best.pt') # Cargar un modelo entrenado a medida - - # Realizar el seguimiento con el modelo - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # Seguimiento con el rastreador predeterminado - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # Seguimiento con el rastreador ByteTrack - ``` - - === "CLI" - - ```bash - # Realizar seguimiento con varios modelos usando la interfaz de línea de comandos - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # Modelo oficial Detect - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # Modelo oficial Segment - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # Modelo oficial Pose - yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # Modelo entrenado a medida - - # Realizar seguimiento usando el rastreador ByteTrack - yolo track model=path/to/best.pt tracker="bytetrack.yaml" - ``` - -Como se puede ver en el uso anterior, el seguimiento está disponible para todos los modelos Detect, Segment y Pose ejecutados en videos o fuentes de transmisión. - -## Configuración - -### Argumentos de Seguimiento - -La configuración de seguimiento comparte propiedades con el modo Predict, como `conf`, `iou` y `show`. Para configuraciones adicionales, consulta la página del modelo [Predict](https://docs.ultralytics.com/modes/predict/). - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Configurar los parámetros de seguimiento y ejecutar el rastreador - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # Configurar parámetros de seguimiento y ejecutar el rastreador usando la interfaz de línea de comandos - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### Selección de Rastreador - -Ultralytics también te permite usar un archivo de configuración de rastreador modificado. Para hacerlo, simplemente haz una copia de un archivo de configuración de rastreador (por ejemplo, `custom_tracker.yaml`) de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) y modifica cualquier configuración (excepto el `tracker_type`) según tus necesidades. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar el modelo y ejecutar el rastreador con un archivo de configuración personalizado - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # Cargar el modelo y ejecutar el rastreador con un archivo de configuración personalizado usando la interfaz de línea de comandos - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -Para obtener una lista completa de los argumentos de seguimiento, consulta la página [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers). - -## Ejemplos en Python - -### Bucle de Seguimiento Persistente - -Aquí hay un script en Python que utiliza OpenCV (`cv2`) y YOLOv8 para ejecutar el seguimiento de objetos en fotogramas de video. Este script aún asume que ya has instalado los paquetes necesarios (`opencv-python` y `ultralytics`). El argumento `persist=True` le indica al rastreador que la imagen o fotograma actual es el siguiente en una secuencia y que espera rastros de la imagen anterior en la imagen actual. - -!!! Example "Bucle de transmisión en vivo con seguimiento" - - ```python - import cv2 - from ultralytics import YOLO - - # Cargar el modelo YOLOv8 - model = YOLO('yolov8n.pt') - - # Abrir el archivo de video - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # Bucle a través de los fotogramas del video - while cap.isOpened(): - # Leer un fotograma del video - success, frame = cap.read() - - if success: - # Ejecutar seguimiento YOLOv8 en el fotograma, persistiendo los rastreos entre fotogramas - results = model.track(frame, persist=True) - - # Visualizar los resultados en el fotograma - annotated_frame = results[0].plot() - - # Mostrar el fotograma anotado - cv2.imshow("Seguimiento YOLOv8", annotated_frame) - - # Romper el bucle si se presiona 'q' - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # Romper el bucle si se alcanza el final del video - break - - # Liberar el objeto de captura de video y cerrar la ventana de visualización - cap.release() - cv2.destroyAllWindows() - ``` - -Toma en cuenta el cambio de `model(frame)` a `model.track(frame)`, que habilita el seguimiento de objetos en lugar de simplemente la detección. Este script modificado ejecutará el rastreador en cada fotograma del video, visualizará los resultados y los mostrará en una ventana. El bucle puede ser terminado presionando 'q'. - -## Contribuir con Nuevos Rastreadores - -¿Eres experto en seguimiento de múltiples objetos y has implementado o adaptado exitosamente un algoritmo de seguimiento con Ultralytics YOLO? Te invitamos a contribuir en nuestra sección de Rastreadores en [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)! Tus aplicaciones en el mundo real y soluciones podrían ser invaluables para los usuarios que trabajan en tareas de seguimiento. - -Al contribuir en esta sección, ayudarás a ampliar el alcance de las soluciones de seguimiento disponibles dentro del marco de trabajo de Ultralytics YOLO, añadiendo otra capa de funcionalidad y utilidad para la comunidad. - -Para iniciar tu contribución, por favor consulta nuestra [Guía de Contribución](https://docs.ultralytics.com/help/contributing) para obtener instrucciones completas sobre cómo enviar una Solicitud de Extracción (PR) 🛠️. ¡Estamos emocionados de ver lo que traes a la mesa! - -Juntos, vamos a mejorar las capacidades de seguimiento del ecosistema Ultralytics YOLO 🙏! diff --git a/docs/es/modes/train.md b/docs/es/modes/train.md deleted file mode 100644 index 6cb798aa532..00000000000 --- a/docs/es/modes/train.md +++ /dev/null @@ -1,206 +0,0 @@ ---- -comments: true -description: Guía paso a paso para entrenar modelos YOLOv8 con Ultralytics YOLO incluyendo ejemplos de entrenamiento con una sola GPU y múltiples GPUs -keywords: Ultralytics, YOLOv8, YOLO, detección de objetos, modo de entrenamiento, conjunto de datos personalizado, entrenamiento GPU, multi-GPU, hiperparámetros, ejemplos CLI, ejemplos Python ---- - -# Entrenamiento de Modelos con Ultralytics YOLO - -Ecosistema e integraciones de Ultralytics YOLO - -## Introducción - -Entrenar un modelo de aprendizaje profundo implica alimentarlo con datos y ajustar sus parámetros para que pueda hacer predicciones precisas. El modo de entrenamiento en Ultralytics YOLOv8 está diseñado para un entrenamiento efectivo y eficiente de modelos de detección de objetos, aprovechando al máximo las capacidades del hardware moderno. Esta guía tiene como objetivo cubrir todos los detalles que necesita para comenzar a entrenar sus propios modelos utilizando el robusto conjunto de características de YOLOv8. - -

-
- -
- Ver: Cómo Entrenar un modelo YOLOv8 en Tu Conjunto de Datos Personalizado en Google Colab. -

- -## ¿Por Qué Elegir Ultralytics YOLO para Entrenamiento? - -Aquí hay algunas razones convincentes para optar por el modo Entrenamiento de YOLOv8: - -- **Eficiencia:** Aprovecha al máximo tu hardware, ya sea en una configuración de una sola GPU o escalando entre múltiples GPUs. -- **Versatilidad:** Entrena con conjuntos de datos personalizados además de los ya disponibles como COCO, VOC e ImageNet. -- **Amigable al Usuario:** Interfaces CLI y Python simples pero potentes para una experiencia de entrenamiento sencilla. -- **Flexibilidad de Hiperparámetros:** Una amplia gama de hiperparámetros personalizables para ajustar el rendimiento del modelo. - -### Características Clave del Modo Entrenamiento - -Las siguientes son algunas características notables del modo Entrenamiento de YOLOv8: - -- **Descarga Automática de Conjuntos de Datos:** Conjuntos de datos estándar como COCO, VOC e ImageNet se descargan automáticamente en el primer uso. -- **Soporte Multi-GPU:** Escala tus esfuerzos de entrenamiento sin problemas en múltiples GPUs para acelerar el proceso. -- **Configuración de Hiperparámetros:** La opción de modificar hiperparámetros a través de archivos de configuración YAML o argumentos CLI. -- **Visualización y Monitoreo:** Seguimiento en tiempo real de métricas de entrenamiento y visualización del proceso de aprendizaje para una mejor comprensión. - -!!! Tip "Consejo" - - * Los conjuntos de datos de YOLOv8 como COCO, VOC, ImageNet y muchos otros se descargan automáticamente en el primer uso, es decir, `yolo train data=coco.yaml` - -## Ejemplos de Uso - -Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tamaño de imagen de 640. El dispositivo de entrenamiento se puede especificar usando el argumento `device`. Si no se pasa ningún argumento, se usará la GPU `device=0` si está disponible; de lo contrario, se usará `device=cpu`. Consulta la sección de Argumentos a continuación para una lista completa de argumentos de entrenamiento. - -!!! Example "Ejemplo de Entrenamiento con una sola GPU y CPU" - - El dispositivo se determina automáticamente. Si hay una GPU disponible, se usará; de lo contrario, el entrenamiento comenzará en la CPU. - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.yaml') # construir un modelo nuevo desde YAML - model = YOLO('yolov8n.pt') # cargar un modelo preentrenado (recomendado para entrenamiento) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # construir desde YAML y transferir pesos - - # Entrenar el modelo - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash - # Construir un modelo nuevo desde YAML y comenzar el entrenamiento desde cero - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Comenzar el entrenamiento desde un modelo preentrenado *.pt - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Construir un modelo nuevo desde YAML, transferir pesos preentrenados a él y comenzar el entrenamiento - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Entrenamiento Multi-GPU - -El entrenamiento Multi-GPU permite una utilización más eficiente de los recursos de hardware disponibles, distribuyendo la carga de entrenamiento en varias GPUs. Esta característica está disponible tanto a través de la API de Python como de la interfaz de línea de comandos. Para habilitar el entrenamiento Multi-GPU, especifica los IDs de los dispositivos GPU que deseas usar. - -!!! Example "Ejemplo de Entrenamiento Multi-GPU" - - Para entrenar con 2 GPUs, dispositivos CUDA 0 y 1, usa los siguientes comandos. Amplía a GPUs adicionales según sea necesario. - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.pt') # cargar un modelo preentrenado (recomendado para entrenamiento) - - # Entrenar el modelo con 2 GPUs - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # Comenzar el entrenamiento desde un modelo preentrenado *.pt usando las GPUs 0 y 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### Entrenamiento con Apple M1 y M2 MPS - -Con el soporte para los chips Apple M1 y M2 integrados en los modelos Ultralytics YOLO, ahora es posible entrenar tus modelos en dispositivos que utilizan el potente marco de Metal Performance Shaders (MPS). El MPS ofrece una forma de alto rendimiento para ejecutar tareas de cálculo y procesamiento de imágenes en el silicio personalizado de Apple. - -Para habilitar el entrenamiento en chips Apple M1 y M2, debes especificar 'mps' como tu dispositivo al iniciar el proceso de entrenamiento. A continuación se muestra un ejemplo de cómo podrías hacer esto en Python y a través de la línea de comandos: - -!!! Example "Ejemplo de Entrenamiento MPS" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.pt') # cargar un modelo preentrenado (recomendado para entrenamiento) - - # Entrenar el modelo con 2 GPUs - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # Comenzar el entrenamiento desde un modelo preentrenado *.pt usando las GPUs 0 y 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -Al aprovechar el poder computacional de los chips M1/M2, esto permite un procesamiento más eficiente de las tareas de entrenamiento. Para obtener una guía más detallada y opciones de configuración avanzadas, consulta la [documentación de PyTorch MPS](https://pytorch.org/docs/stable/notes/mps.html). - -## Registros (Logging) - -Al entrenar un modelo YOLOv8, puedes encontrar valioso llevar un registro del rendimiento del modelo con el tiempo. Aquí es donde entra en juego el registro. Ultralytics' YOLO ofrece soporte para tres tipos de registradores: Comet, ClearML y TensorBoard. - -Para usar un registrador, selecciónalo en el menú desplegable en el fragmento de código anterior y ejecútalo. El registrador elegido se instalará e inicializará. - -### Comet - -[Comet](https://www.comet.ml/site/) es una plataforma que permite a los científicos de datos y desarrolladores rastrear, comparar, explicar y optimizar experimentos y modelos. Ofrece funcionalidades como métricas en tiempo real, diferencias de código y seguimiento de hiperparámetros. - -Para usar Comet: - -!!! Example "Ejemplo" - - === "Python" - ```python - # pip install comet_ml - import comet_ml - - comet_ml.init() - ``` - -Recuerda iniciar sesión en tu cuenta de Comet en su sitio web y obtener tu clave API. Necesitarás agregar esto a tus variables de entorno o tu script para registrar tus experimentos. - -### ClearML - -[ClearML](https://www.clear.ml/) es una plataforma de código abierto que automatiza el seguimiento de experimentos y ayuda con la compartición eficiente de recursos. Está diseñado para ayudar a los equipos a gestionar, ejecutar y reproducir su trabajo de ML de manera más eficiente. - -Para usar ClearML: - -!!! Example "Ejemplo" - - === "Python" - ```python - # pip install clearml - import clearml - - clearml.browser_login() - ``` - -Después de ejecutar este script, necesitarás iniciar sesión en tu cuenta de ClearML en el navegador y autenticar tu sesión. - -### TensorBoard - -[TensorBoard](https://www.tensorflow.org/tensorboard) es una herramienta de visualización para TensorFlow. Te permite visualizar tu grafo TensorFlow, trazar métricas cuantitativas sobre la ejecución de tu grafo y mostrar datos adicionales como imágenes que lo atraviesan. - -Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): - -!!! Example "Ejemplo" - - === "CLI" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # reemplazar con el directorio 'runs' - ``` - -Para usar TensorBoard localmente, ejecuta el siguiente comando y visualiza los resultados en http://localhost:6006/. - -!!! Example "Ejemplo" - - === "CLI" - ```bash - tensorboard --logdir ultralytics/runs # reemplazar con el directorio 'runs' - ``` - -Esto cargará TensorBoard y lo dirigirá al directorio donde se guardan tus registros de entrenamiento. - -Después de configurar tu registrador, puedes proceder con tu entrenamiento de modelo. Todas las métricas de entrenamiento se registrarán automáticamente en la plataforma elegida y podrás acceder a estos registros para monitorear el rendimiento de tu modelo con el tiempo, comparar diferentes modelos e identificar áreas de mejora. diff --git a/docs/es/modes/val.md b/docs/es/modes/val.md deleted file mode 100644 index ee81404ddba..00000000000 --- a/docs/es/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: Guía para validar modelos YOLOv8. Aprenda a evaluar el rendimiento de sus modelos YOLO utilizando configuraciones y métricas de validación con ejemplos en Python y CLI. -keywords: Ultralytics, Documentación YOLO, YOLOv8, validación, evaluación de modelos, hiperparámetros, precisión, métricas, Python, CLI ---- - -# Validación de modelos con Ultralytics YOLO - -Ecosistema e integraciones de Ultralytics YOLO - -## Introducción - -La validación es un paso crítico en el flujo de trabajo de aprendizaje automático, permitiéndole evaluar la calidad de sus modelos entrenados. El modo Val en Ultralytics YOLOv8 proporciona un robusto conjunto de herramientas y métricas para evaluar el rendimiento de sus modelos de detección de objetos. Esta guía sirve como un recurso completo para comprender cómo utilizar efectivamente el modo Val para asegurar que sus modelos sean precisos y confiables. - -## ¿Por qué validar con Ultralytics YOLO? - -Estas son las ventajas de usar el modo Val de YOLOv8: - -- **Precisión:** Obtenga métricas precisas como mAP50, mAP75 y mAP50-95 para evaluar de manera integral su modelo. -- **Comodidad:** Utilice funciones integradas que recuerdan los ajustes de entrenamiento, simplificando el proceso de validación. -- **Flexibilidad:** Valide su modelo con el mismo conjunto de datos o diferentes conjuntos de datos y tamaños de imagen. -- **Ajuste de Hiperparámetros:** Use las métricas de validación para ajustar su modelo y mejorar el rendimiento. - -### Características principales del modo Val - -Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8: - -- **Configuraciones Automatizadas:** Los modelos recuerdan sus configuraciones de entrenamiento para una validación sencilla. -- **Soporte de Múltiples Métricas:** Evalúe su modelo basado en una gama de métricas de precisión. -- **CLI y API de Python:** Elija entre la interfaz de línea de comandos o API de Python basada en su preferencia para validación. -- **Compatibilidad de Datos:** Funciona sin problemas con conjuntos de datos utilizados durante la fase de entrenamiento así como con conjuntos de datos personalizados. - -!!! Tip "Consejo" - - * Los modelos YOLOv8 recuerdan automáticamente sus ajustes de entrenamiento, así que puede validar un modelo en el mismo tamaño de imagen y en el conjunto de datos original fácilmente con solo `yolo val model=yolov8n.pt` o `model('yolov8n.pt').val()` - -## Ejemplos de Uso - -Valide la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.pt') # cargar un modelo oficial - model = YOLO('ruta/a/best.pt') # cargar un modelo personalizado - - # Validar el modelo - metrics = model.val() # no se necesitan argumentos, el conjunto de datos y ajustes se recuerdan - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # una lista que contiene map50-95 de cada categoría - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # val model oficial - yolo detect val model=ruta/a/best.pt # val model personalizado - ``` - -## Argumentos - -Los ajustes de validación para modelos YOLO se refieren a los diversos hiperparámetros y configuraciones utilizados para evaluar el rendimiento del modelo en un conjunto de datos de validación. Estos ajustes pueden afectar el rendimiento, la velocidad y la precisión del modelo. Algunos ajustes comunes de validación YOLO incluyen el tamaño del lote, la frecuencia con la que se realiza la validación durante el entrenamiento y las métricas utilizadas para evaluar el rendimiento del modelo. Otros factores que pueden afectar el proceso de validación incluyen el tamaño y la composición del conjunto de datos de validación y la tarea específica para la que se utiliza el modelo. Es importante ajustar y experimentar cuidadosamente con estos ajustes para asegurarse de que el modelo esté funcionando bien en el conjunto de datos de validación y para detectar y prevenir el sobreajuste. - -| Clave | Valor | Descripción | -|---------------|---------|---------------------------------------------------------------------------------------------------| -| `data` | `None` | ruta al archivo de datos, por ejemplo coco128.yaml | -| `imgsz` | `640` | tamaño de las imágenes de entrada como entero | -| `batch` | `16` | número de imágenes por lote (-1 para AutoBatch) | -| `save_json` | `False` | guardar resultados en archivo JSON | -| `save_hybrid` | `False` | guardar versión híbrida de las etiquetas (etiquetas + predicciones adicionales) | -| `conf` | `0.001` | umbral de confianza del objeto para detección | -| `iou` | `0.6` | umbral de Intersección sobre Unión (IoU) para NMS | -| `max_det` | `300` | número máximo de detecciones por imagen | -| `half` | `True` | usar precisión de punto flotante de media preción (FP16) | -| `device` | `None` | dispositivo en el que se ejecuta, por ejemplo dispositivo cuda=0/1/2/3 o dispositivo=cpu | -| `dnn` | `False` | utilizar OpenCV DNN para inferencia ONNX | -| `plots` | `False` | mostrar gráficos durante el entrenamiento | -| `rect` | `False` | val rectangular con cada lote compilado para el mínimo relleno | -| `split` | `val` | división del conjunto de datos a utilizar para la validación, por ejemplo 'val', 'test' o 'train' | -| diff --git a/docs/es/quickstart.md b/docs/es/quickstart.md deleted file mode 100644 index ab6dfaf8fa7..00000000000 --- a/docs/es/quickstart.md +++ /dev/null @@ -1,198 +0,0 @@ ---- -comments: true -description: Explore diversos métodos para instalar Ultralytics usando pip, conda, git y Docker. Aprende cómo usar Ultralytics con la interfaz de línea de comandos o dentro de tus proyectos de Python. -keywords: instalación de Ultralytics, pip install Ultralytics, instalación de Docker Ultralytics, interfaz de línea de comandos de Ultralytics, interfaz de Python de Ultralytics ---- - -## Instalar Ultralytics - -Ultralytics ofrece varios métodos de instalación incluyendo pip, conda y Docker. Instala YOLOv8 a través del paquete `ultralytics` de pip para la última versión estable o clonando el [repositorio de GitHub de Ultralytics](https://github.com/ultralytics/ultralytics) para obtener la versión más actualizada. Docker se puede utilizar para ejecutar el paquete en un contenedor aislado, evitando la instalación local. - -!!! Example "Instalar" - - === "Instalación con Pip (recomendado)" - Instala el paquete `ultralytics` usando pip o actualiza una instalación existente ejecutando `pip install -U ultralytics`. Visita el Índice de Paquetes de Python (PyPI) para más detalles sobre el paquete `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). - - [![Versión en PyPI](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Descargas](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # Instalar el paquete ultralytics desde PyPI - pip install ultralytics - ``` - - También puedes instalar el paquete `ultralytics` directamente del [repositorio](https://github.com/ultralytics/ultralytics) en GitHub. Esto puede ser útil si quieres la última versión de desarrollo. Asegúrate de tener la herramienta de línea de comandos Git instalada en tu sistema. El comando `@main` instala la rama `main` y puede modificarse a otra rama, es decir, `@my-branch`, o eliminarse por completo para volver por defecto a la rama `main`. - - ```bash - # Instalar el paquete ultralytics desde GitHub - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "Instalación con Conda" - Conda es un gestor de paquetes alternativo a pip que también puede utilizarse para la instalación. Visita Anaconda para más detalles en [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics). El repositorio de paquetes de alimentación de Ultralytics para actualizar el paquete de conda está en [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/). - - - [![Receta de Conda](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Descargas de Conda](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Versión de Conda](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Plataformas de Conda](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # Instalar el paquete ultralytics usando conda - conda install -c conda-forge ultralytics - ``` - - !!! Note "Nota" - - Si estás instalando en un entorno CUDA, la mejor práctica es instalar `ultralytics`, `pytorch` y `pytorch-cuda` en el mismo comando para permitir que el gestor de paquetes de conda resuelva cualquier conflicto, o en su defecto instalar `pytorch-cuda` al final para permitir que sobrescriba el paquete específico de CPU `pytorch` si es necesario. - ```bash - # Instalar todos los paquetes juntos usando conda - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Imagen Docker de Conda - - Las imágenes Docker de Conda de Ultralytics también están disponibles en [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics). Estas imágenes están basadas en [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) y son una manera simple de comenzar a usar `ultralytics` en un entorno Conda. - - ```bash - # Establecer el nombre de la imagen como una variable - t=ultralytics/ultralytics:latest-conda - - # Descargar la última imagen de ultralytics de Docker Hub - sudo docker pull $t - - # Ejecutar la imagen de ultralytics en un contenedor con soporte para GPU - sudo docker run -it --ipc=host --gpus all $t # todas las GPUs - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # especificar GPUs - ``` - - === "Clonar con Git" - Clona el repositorio `ultralytics` si estás interesado en contribuir al desarrollo o deseas experimentar con el código fuente más reciente. Después de clonar, navega al directorio e instala el paquete en modo editable `-e` usando pip. - ```bash - # Clonar el repositorio ultralytics - git clone https://github.com/ultralytics/ultralytics - - # Navegar al directorio clonado - cd ultralytics - - # Instalar el paquete en modo editable para desarrollo - pip install -e . - ``` - -Consulta el archivo [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml) de `ultralytics` para ver una lista de dependencias. Ten en cuenta que todos los ejemplos anteriores instalan todas las dependencias requeridas. - -

-
- -
- Watch: Ultralytics YOLO Quick Start Guide -

- -!!! Tip "Consejo" - - Los requisitos de PyTorch varían según el sistema operativo y los requisitos de CUDA, por lo que se recomienda instalar primero PyTorch siguiendo las instrucciones en [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). - - - Instrucciones de Instalación de PyTorch - - -## Usar Ultralytics con CLI - -La interfaz de línea de comandos (CLI) de Ultralytics permite el uso de comandos simples de una sola línea sin la necesidad de un entorno de Python. La CLI no requiere personalización ni código Python. Puedes simplemente ejecutar todas las tareas desde el terminal con el comando `yolo`. Consulta la [Guía de CLI](/../usage/cli.md) para aprender más sobre el uso de YOLOv8 desde la línea de comandos. - -!!! Example "Ejemplo" - - === "Sintaxis" - - Los comandos `yolo` de Ultralytics usan la siguiente sintaxis: - ```bash - yolo TAREA MODO ARGUMENTOS - - Donde TAREA (opcional) es uno de [detectar, segmentar, clasificar] - MODO (requerido) es uno de [train, val, predict, export, track] - ARGUMENTOS (opcionales) son cualquier número de pares personalizados 'arg=valor' como 'imgsz=320' que sobrescriben los valores por defecto. - ``` - Ver todos los ARGUMENTOS en la guía completa [Configuration Guide](/../usage/cfg.md) o con `yolo cfg` - - === "Entrenar" - - Entrenar un modelo de detección durante 10 épocas con una tasa de aprendizaje inicial de 0.01 - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "Predecir" - - Predecir un video de YouTube usando un modelo de segmentación preentrenado con un tamaño de imagen de 320: - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "Validar" - - Validar un modelo de detección preentrenado con un tamaño de lote de 1 y un tamaño de imagen de 640: - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "Exportar" - - Exportar un modelo de clasificación YOLOv8n a formato ONNX con un tamaño de imagen de 224 por 128 (no se requiere TAREA) - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "Especial" - - Ejecutar comandos especiales para ver la versión, ver configuraciones, ejecutar chequeos y más: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "Advertencia" - - Los argumentos deben pasarse como pares `arg=valor`, separados por un signo igual `=` y delimitados por espacios ` ` entre pares. No utilices prefijos de argumentos `--` ni comas `,` entre los argumentos. - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`   ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25`   ❌ - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25`   ❌ - -[Guía de CLI](/../usage/cli.md){.md-button .md-button--primary} - -## Usar Ultralytics con Python - -La interfaz de Python de YOLOv8 permite una integración perfecta en tus proyectos de Python, facilitando la carga, ejecución y procesamiento de la salida del modelo. Diseñada con sencillez y facilidad de uso en mente, la interfaz de Python permite a los usuarios implementar rápidamente la detección de objetos, segmentación y clasificación en sus proyectos. Esto hace que la interfaz de Python de YOLOv8 sea una herramienta invaluable para cualquier persona que busque incorporar estas funcionalidades en sus proyectos de Python. - -Por ejemplo, los usuarios pueden cargar un modelo, entrenarlo, evaluar su rendimiento en un conjunto de validación e incluso exportarlo al formato ONNX con solo unas pocas líneas de código. Consulta la [Guía de Python](/../usage/python.md) para aprender más sobre el uso de YOLOv8 dentro de tus proyectos de Python. - -!!! Example "Ejemplo" - - ```python - from ultralytics import YOLO - - # Crear un nuevo modelo YOLO desde cero - model = YOLO('yolov8n.yaml') - - # Cargar un modelo YOLO preentrenado (recomendado para entrenamiento) - model = YOLO('yolov8n.pt') - - # Entrenar el modelo usando el conjunto de datos 'coco128.yaml' durante 3 épocas - results = model.train(data='coco128.yaml', epochs=3) - - # Evaluar el rendimiento del modelo en el conjunto de validación - results = model.val() - - # Realizar detección de objetos en una imagen usando el modelo - results = model('https://ultralytics.com/images/bus.jpg') - - # Exportar el modelo al formato ONNX - success = model.export(format='onnx') - ``` - -[Guía de Python](/../usage/python.md){.md-button .md-button--primary} diff --git a/docs/es/tasks/classify.md b/docs/es/tasks/classify.md deleted file mode 100644 index 74e73abe4ee..00000000000 --- a/docs/es/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: Aprenda sobre los modelos de clasificación de imágenes YOLOv8 Classify. Obtenga información detallada sobre la Lista de Modelos Preentrenados y cómo Entrenar, Validar, Predecir y Exportar modelos. -keywords: Ultralytics, YOLOv8, Clasificación de imágenes, Modelos preentrenados, YOLOv8n-cls, Entrenamiento, Validación, Predicción, Exportación de modelos ---- - -# Clasificación de Imágenes - -Ejemplos de clasificación de imágenes - -La clasificación de imágenes es la tarea más sencilla de las tres y consiste en clasificar una imagen completa en una de un conjunto de clases predefinidas. - -La salida de un clasificador de imágenes es una única etiqueta de clase y una puntuación de confianza. La clasificación de imágenes es útil cuando solo necesita saber a qué clase pertenece una imagen y no necesita conocer dónde están ubicados los objetos de esa clase o cuál es su forma exacta. - -!!! Tip "Consejo" - - Los modelos YOLOv8 Classify utilizan el sufijo `-cls`, por ejemplo, `yolov8n-cls.pt` y están preentrenados en [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -## [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Los modelos Classify preentrenados YOLOv8 se muestran aquí. Los modelos Detect, Segment y Pose están preentrenados en el conjunto de datos [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), mientras que los modelos Classify están preentrenados en el conjunto de datos [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) se descargan automáticamente desde el último [lanzamiento](https://github.com/ultralytics/assets/releases) de Ultralytics en el primer uso. - -| Modelo | Tamaño
(píxeles) | Exactitud
top1 | Exactitud
top5 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | Parámetros
(M) | FLOPs
(B) en 640 | -|----------------------------------------------------------------------------------------------|--------------------------|------------------------|------------------------|------------------------------------|-----------------------------------------|------------------------|--------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- Los valores de **Exactitud** son las precisiones de los modelos en el conjunto de datos de validación de [ImageNet](https://www.image-net.org/). -
Para reproducir usar `yolo val classify data=path/to/ImageNet device=0` -- **Velocidad** promediada sobre imágenes de validación de ImageNet usando una instancia de [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) -
Para reproducir usar `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` - -## Entrenamiento - -Entrena el modelo YOLOv8n-cls en el conjunto de datos MNIST160 durante 100 épocas con un tamaño de imagen de 64. Para obtener una lista completa de argumentos disponibles, consulte la página de [Configuración](/../usage/cfg.md). - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-cls.yaml') # construir un nuevo modelo desde YAML - model = YOLO('yolov8n-cls.pt') # cargar un modelo preentrenado (recomendado para entrenamiento) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # construir desde YAML y transferir pesos - - # Entrenar el modelo - results = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # Construir un nuevo modelo desde YAML y empezar entrenamiento desde cero - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # Empezar entrenamiento desde un modelo *.pt preentrenado - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # Construir un nuevo modelo desde YAML, transferir pesos preentrenados e iniciar entrenamiento - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### Formato del conjunto de datos - -El formato del conjunto de datos de clasificación YOLO puede encontrarse en detalle en la [Guía de Conjuntos de Datos](../../../datasets/classify/index.md). - -## Validación - -Validar la exactitud del modelo YOLOv8n-cls entrenado en el conjunto de datos MNIST160. No es necesario pasar ningún argumento ya que el `modelo` retiene su `data` y argumentos como atributos del modelo. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-cls.pt') # cargar un modelo oficial - model = YOLO('path/to/best.pt') # cargar un modelo personalizado - - # Validar el modelo - metrics = model.val() # no se necesitan argumentos, el conjunto de datos y configuraciones se recuerdan - metrics.top1 # precisión top1 - metrics.top5 # precisión top5 - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # validar modelo oficial - yolo classify val model=path/to/best.pt # validar modelo personalizado - ``` - -## Predicción - -Usar un modelo YOLOv8n-cls entrenado para realizar predicciones en imágenes. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-cls.pt') # cargar un modelo oficial - model = YOLO('path/to/best.pt') # cargar un modelo personalizado - - # Predecir con el modelo - results = model('https://ultralytics.com/images/bus.jpg') # predecir en una imagen - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # predecir con modelo oficial - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predecir con modelo personalizado - ``` - -Ver detalles completos del modo `predict` en la página de [Predicción](https://docs.ultralytics.com/modes/predict/). - -## Exportación - -Exportar un modelo YOLOv8n-cls a un formato diferente como ONNX, CoreML, etc. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-cls.pt') # cargar un modelo oficial - model = YOLO('path/to/best.pt') # cargar un modelo entrenado personalizado - - # Exportar el modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # exportar modelo oficial - yolo export model=path/to/best.pt format=onnx # exportar modelo entrenado personalizado - ``` - -Los formatos de exportación disponibles para YOLOv8-cls se encuentran en la tabla a continuación. Puede predecir o validar directamente en modelos exportados, por ejemplo, `yolo predict model=yolov8n-cls.onnx`. Ejemplos de uso se muestran para su modelo después de que se completa la exportación. - -| Formato | Argumento `format` | Modelo | Metadatos | Argumentos | -|--------------------------------------------------------------------|--------------------|-------------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -Vea detalles completos de `exportación` en la página de [Exportación](https://docs.ultralytics.com/modes/export/). diff --git a/docs/es/tasks/detect.md b/docs/es/tasks/detect.md deleted file mode 100644 index 7b31d62cf2a..00000000000 --- a/docs/es/tasks/detect.md +++ /dev/null @@ -1,184 +0,0 @@ ---- -comments: true -description: Documentación oficial de YOLOv8 de Ultralytics. Aprende a entrenar, validar, predecir y exportar modelos en varios formatos. Incluyendo estadísticas detalladas de rendimiento. -keywords: YOLOv8, Ultralytics, detección de objetos, modelos preentrenados, entrenamiento, validación, predicción, exportación de modelos, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# Detección de Objetos - -Ejemplos de detección de objetos - -La detección de objetos es una tarea que implica identificar la ubicación y clase de objetos en una imagen o flujo de video. - -La salida de un detector de objetos es un conjunto de cajas delimitadoras que encierran a los objetos en la imagen, junto con etiquetas de clase y puntajes de confianza para cada caja. La detección de objetos es una buena opción cuando necesitas identificar objetos de interés en una escena, pero no necesitas saber exactamente dónde se encuentra el objeto o su forma exacta. - -

-
- -
- Ver: Detección de Objetos con Modelo Preentrenado YOLOv8 de Ultralytics. -

- -!!! Tip "Consejo" - - Los modelos YOLOv8 Detect son los modelos predeterminados de YOLOv8, es decir, `yolov8n.pt` y están preentrenados en [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Los modelos preentrenados de YOLOv8 Detect se muestran aquí. Los modelos de Detect, Segment y Pose están preentrenados en el conjunto de datos [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), mientras que los modelos de Classify están preentrenados en el conjunto de datos [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) se descargan automáticamente desde el último lanzamiento de Ultralytics [release](https://github.com/ultralytics/assets/releases) en el primer uso. - -| Modelo | tamaño
(píxeles) | mAPval
50-95 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | parámetros
(M) | FLOPs
(B) | -|--------------------------------------------------------------------------------------|--------------------------|----------------------|------------------------------------|-----------------------------------------|------------------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- Los valores de **mAPval** son para un solo modelo a una sola escala en el conjunto de datos [COCO val2017](https://cocodataset.org). -
Reproduce utilizando `yolo val detect data=coco.yaml device=0` -- La **Velocidad** es el promedio sobre las imágenes de COCO val utilizando una instancia [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Reproduce utilizando `yolo val detect data=coco128.yaml batch=1 device=0|cpu` - -## Entrenamiento - -Entrena a YOLOv8n en el conjunto de datos COCO128 durante 100 épocas a tamaño de imagen 640. Para una lista completa de argumentos disponibles, consulta la página [Configuración](/../usage/cfg.md). - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.yaml') # construye un nuevo modelo desde YAML - model = YOLO('yolov8n.pt') # carga un modelo preentrenado (recomendado para entrenamiento) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # construye desde YAML y transfiere los pesos - - # Entrenar el modelo - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construir un nuevo modelo desde YAML y comenzar entrenamiento desde cero - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Comenzar entrenamiento desde un modelo *.pt preentrenado - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Construir un nuevo modelo desde YAML, transferir pesos preentrenados y comenzar entrenamiento - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Formato del conjunto de datos - -El formato del conjunto de datos de detección de YOLO se puede encontrar en detalle en la [Guía de Conjuntos de Datos](../../../datasets/detect/index.md). Para convertir tu conjunto de datos existente desde otros formatos (como COCO, etc.) al formato YOLO, por favor usa la herramienta [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) de Ultralytics. - -## Validación - -Valida la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento, ya que el `modelo` retiene sus datos de `entrenamiento` y argumentos como atributos del modelo. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.pt') # cargar un modelo oficial - model = YOLO('ruta/a/mejor.pt') # cargar un modelo personalizado - - # Validar el modelo - metrics = model.val() # sin argumentos necesarios, el conjunto de datos y configuraciones se recuerdan - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # una lista contiene map50-95 de cada categoría - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # validar modelo oficial - yolo detect val model=ruta/a/mejor.pt # validar modelo personalizado - ``` - -## Predicción - -Utiliza un modelo YOLOv8n entrenado para realizar predicciones en imágenes. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.pt') # cargar un modelo oficial - model = YOLO('ruta/a/mejor.pt') # cargar un modelo personalizado - - # Predecir con el modelo - results = model('https://ultralytics.com/images/bus.jpg') # predecir en una imagen - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # predecir con modelo oficial - yolo detect predict model=ruta/a/mejor.pt source='https://ultralytics.com/images/bus.jpg' # predecir con modelo personalizado - ``` - -Consulta los detalles completos del modo `predict` en la página [Predicción](https://docs.ultralytics.com/modes/predict/). - -## Exportación - -Exporta un modelo YOLOv8n a un formato diferente como ONNX, CoreML, etc. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n.pt') # cargar un modelo oficial - model = YOLO('ruta/a/mejor.pt') # cargar un modelo entrenado personalizado - - # Exportar el modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # exportar modelo oficial - yolo export model=ruta/a/mejor.pt format=onnx # exportar modelo entrenado personalizado - ``` - -Los formatos de exportación de YOLOv8 disponibles se encuentran en la tabla a continuación. Puedes predecir o validar directamente en modelos exportados, es decir, `yolo predict model=yolov8n.onnx`. Ejemplos de uso se muestran para tu modelo después de que la exportación se completa. - -| Formato | Argumento `format` | Modelo | Metadata | Argumentos | -|--------------------------------------------------------------------|--------------------|----------------------------|----------|------------------------------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimizar` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `mitad`, `dinámico`, `simplificar`, `conjunto de operaciones` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `modelo_yolov8n_openvino/` | ✅ | `imgsz`, `mitad` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `mitad`, `dinámico`, `simplificar`, `espacio de trabajo` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `mitad`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `modelo_guardado_yolov8n/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `mitad`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `modelo_web_yolov8n/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `modelo_yolov8n_paddle/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `modelo_ncnn_yolov8n/` | ✅ | `imgsz`, `mitad` | - -Consulta los detalles completos de la `exportación` en la página [Exportar](https://docs.ultralytics.com/modes/export/). diff --git a/docs/es/tasks/index.md b/docs/es/tasks/index.md deleted file mode 100644 index 04d1b5adce7..00000000000 --- a/docs/es/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: Aprenda sobre las tareas fundamentales de visión por computadora que YOLOv8 puede realizar, incluyendo detección, segmentación, clasificación y estimación de pose. Comprenda sus usos en sus proyectos de IA. -keywords: Ultralytics, YOLOv8, Detección, Segmentación, Clasificación, Estimación de Pose, Marco de IA, Tareas de Visión por Computadora ---- - -# Tareas de Ultralytics YOLOv8 - -
-Tareas soportadas por Ultralytics YOLO - -YOLOv8 es un marco de trabajo de IA que soporta múltiples **tareas** de visión por computadora. El marco puede usarse para realizar [detección](detect.md), [segmentación](segment.md), [clasificación](classify.md) y estimación de [pose](pose.md). Cada una de estas tareas tiene un objetivo y caso de uso diferente. - -!!! Note "Nota" - - 🚧 Nuestra documentación multilenguaje está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por su paciencia! 🙏 - -

-
- -
- Mire: Explore las Tareas de Ultralytics YOLO: Detección de Objetos, Segmentación, Seguimiento y Estimación de Pose. -

- -## [Detección](detect.md) - -La detección es la tarea principal soportada por YOLOv8. Implica detectar objetos en una imagen o cuadro de video y dibujar cuadros delimitadores alrededor de ellos. Los objetos detectados se clasifican en diferentes categorías basadas en sus características. YOLOv8 puede detectar múltiples objetos en una sola imagen o cuadro de video con alta precisión y velocidad. - -[Ejemplos de Detección](detect.md){ .md-button } - -## [Segmentación](segment.md) - -La segmentación es una tarea que implica segmentar una imagen en diferentes regiones basadas en el contenido de la imagen. A cada región se le asigna una etiqueta basada en su contenido. Esta tarea es útil en aplicaciones tales como segmentación de imágenes y imágenes médicas. YOLOv8 utiliza una variante de la arquitectura U-Net para realizar la segmentación. - -[Ejemplos de Segmentación](segment.md){ .md-button } - -## [Clasificación](classify.md) - -La clasificación es una tarea que implica clasificar una imagen en diferentes categorías. YOLOv8 puede usarse para clasificar imágenes basadas en su contenido. Utiliza una variante de la arquitectura EfficientNet para realizar la clasificación. - -[Ejemplos de Clasificación](classify.md){ .md-button } - -## [Pose](pose.md) - -La detección de pose/puntos clave es una tarea que implica detectar puntos específicos en una imagen o cuadro de video. Estos puntos se conocen como puntos clave y se utilizan para rastrear el movimiento o la estimación de la pose. YOLOv8 puede detectar puntos clave en una imagen o cuadro de video con alta precisión y velocidad. - -[Ejemplos de Pose](pose.md){ .md-button } - -## Conclusión - -YOLOv8 soporta múltiples tareas, incluyendo detección, segmentación, clasificación y detección de puntos clave. Cada una de estas tareas tiene diferentes objetivos y casos de uso. Al entender las diferencias entre estas tareas, puede elegir la tarea adecuada para su aplicación de visión por computadora. diff --git a/docs/es/tasks/pose.md b/docs/es/tasks/pose.md deleted file mode 100644 index 50e8ea698c1..00000000000 --- a/docs/es/tasks/pose.md +++ /dev/null @@ -1,185 +0,0 @@ ---- -comments: true -description: Aprende a utilizar Ultralytics YOLOv8 para tareas de estimación de pose. Encuentra modelos preentrenados, aprende a entrenar, validar, predecir y exportar tus propios modelos. -keywords: Ultralytics, YOLO, YOLOv8, estimación de pose, detección de puntos clave, detección de objetos, modelos preentrenados, aprendizaje automático, inteligencia artificial ---- - -# Estimación de Pose - -Ejemplos de estimación de pose - -La estimación de pose es una tarea que implica identificar la ubicación de puntos específicos en una imagen, comúnmente referidos como puntos clave. Estos puntos clave pueden representar varias partes del objeto, como articulaciones, puntos de referencia u otras características distintivas. La ubicación de los puntos clave generalmente se representa como un conjunto de coordenadas 2D `[x, y]` o 3D `[x, y, visible]`. - -La salida de un modelo de estimación de pose es un conjunto de puntos que representan los puntos clave en un objeto de la imagen, generalmente junto con las puntuaciones de confianza para cada punto. La estimación de pose es una buena opción cuando se necesita identificar partes específicas de un objeto en una escena y su ubicación relativa entre ellas. - -

-
- -
- Ver: Estimación de Pose con Ultralytics YOLOv8. -

- -!!! Tip "Consejo" - - Los modelos _pose_ YOLOv8 utilizan el sufijo `-pose`, por ejemplo, `yolov8n-pose.pt`. Estos modelos están entrenados en el conjunto de datos [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) y son adecuados para una variedad de tareas de estimación de pose. - -## [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Aquí se muestran los modelos preentrenados de YOLOv8 Pose. Los modelos Detect, Segment y Pose están preentrenados en el conjunto de datos [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), mientras que los modelos Classify están preentrenados en el conjunto de datos [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) se descargan automáticamente desde el último lanzamiento de Ultralytics [release](https://github.com/ultralytics/assets/releases) en el primer uso. - -| Modelo | tamaño
(píxeles) | mAPpose
50-95 | mAPpose
50 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | parámetros
(M) | FLOPs
(B) | -|------------------------------------------------------------------------------------------------------|--------------------------|-----------------------|--------------------|------------------------------------|-----------------------------------------|------------------------|-------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- Los valores de **mAPval** son para un solo modelo a una sola escala en el conjunto de datos [COCO Keypoints val2017](https://cocodataset.org). -
Reproducir con `yolo val pose data=coco-pose.yaml device=0` -- **Velocidad** promediada sobre imágenes COCO val usando una instancia [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Reproducir con `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` - -## Entrenar - -Entrena un modelo YOLOv8-pose en el conjunto de datos COCO128-pose. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-pose.yaml') # construir un nuevo modelo desde YAML - model = YOLO('yolov8n-pose.pt') # cargar un modelo preentrenado (recomendado para entrenar) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # construir desde YAML y transferir los pesos - - # Entrenar el modelo - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construir un nuevo modelo desde YAML y comenzar entrenamiento desde cero - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # Empezar entrenamiento desde un modelo *.pt preentrenado - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # Construir un nuevo modelo desde YAML, transferir pesos preentrenados y comenzar entrenamiento - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### Formato del conjunto de datos - -El formato del conjunto de datos de pose de YOLO se puede encontrar en detalle en la [Guía de Conjuntos de Datos](../../../datasets/pose/index.md). Para convertir tu conjunto de datos existente de otros formatos (como COCO, etc.) al formato de YOLO, usa la herramienta [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) de Ultralytics. - -## Validar - -Valida la precisión del modelo YOLOv8n-pose entrenado en el conjunto de datos COCO128-pose. No es necesario pasar ningún argumento ya que el `modelo` mantiene sus `datos` de entrenamiento y argumentos como atributos del modelo. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-pose.pt') # cargar un modelo oficial - model = YOLO('path/to/best.pt') # cargar un modelo personalizado - - # Validar el modelo - metrics = model.val() # no se necesitan argumentos, el conjunto de datos y configuraciones se recuerdan - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # una lista contiene map50-95 de cada categoría - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # modelo oficial de val - yolo pose val model=path/to/best.pt # modelo personalizado de val - ``` - -## Predecir - -Usa un modelo YOLOv8n-pose entrenado para realizar predicciones en imágenes. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-pose.pt') # cargar un modelo oficial - model = YOLO('path/to/best.pt') # cargar un modelo personalizado - - # Predecir con el modelo - results = model('https://ultralytics.com/images/bus.jpg') # predecir en una imagen - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # predecir con modelo oficial - yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predecir con modelo personalizado - ``` - -Consulta los detalles completos del modo `predict` en la página de [Predicción](https://docs.ultralytics.com/modes/predict/). - -## Exportar - -Exporta un modelo YOLOv8n Pose a un formato diferente como ONNX, CoreML, etc. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-pose.pt') # cargar un modelo oficial - model = YOLO('path/to/best.pt') # cargar un modelo entrenado personalizado - - # Exportar el modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # exportar modelo oficial - yolo export model=path/to/best.pt format=onnx # exportar modelo entrenado personalizado - ``` - -Los formatos de exportación de YOLOv8-pose disponibles se muestran en la tabla a continuación. Puedes predecir o validar directamente en modelos exportados, por ejemplo, `yolo predict model=yolov8n-pose.onnx`. Los ejemplos de uso se muestran para tu modelo después de que la exportación se completa. - -| Formato | Argumento `format` | Modelo | Metadatos | Argumentos | -|--------------------------------------------------------------------|--------------------|--------------------------------|-----------|---------------------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dinámico`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dinámico`, `simplify`, `espacio de trabajo` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -Consulta los detalles completos del modo `export` en la página de [Exportación](https://docs.ultralytics.com/modes/export/). diff --git a/docs/es/tasks/segment.md b/docs/es/tasks/segment.md deleted file mode 100644 index b152d5a7178..00000000000 --- a/docs/es/tasks/segment.md +++ /dev/null @@ -1,188 +0,0 @@ ---- -comments: true -description: Aprende a utilizar modelos de segmentación de instancias con Ultralytics YOLO. Instrucciones sobre entrenamiento, validación, predicción de imágenes y exportación de modelos. -keywords: yolov8, segmentación de instancias, Ultralytics, conjunto de datos COCO, segmentación de imágenes, detección de objetos, entrenamiento de modelos, validación de modelos, predicción de imágenes, exportación de modelos. ---- - -# Segmentación de Instancias - -Ejemplos de segmentación de instancias - -La segmentación de instancias va un paso más allá de la detección de objetos e implica identificar objetos individuales en una imagen y segmentarlos del resto de la imagen. - -La salida de un modelo de segmentación de instancias es un conjunto de máscaras o contornos que delimitan cada objeto en la imagen, junto con etiquetas de clase y puntajes de confianza para cada objeto. La segmentación de instancias es útil cuando necesitas saber no solo dónde están los objetos en una imagen, sino también cuál es su forma exacta. - -

-
- -
- Mira: Ejecuta la Segmentación con el Modelo Ultralytics YOLOv8 Preentrenado en Python. -

- -!!! Tip "Consejo" - - Los modelos YOLOv8 Segment utilizan el sufijo `-seg`, es decir, `yolov8n-seg.pt` y están preentrenados en el [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Aquí se muestran los modelos Segment preentrenados YOLOv8. Los modelos Detect, Segment y Pose están preentrenados en el conjunto de datos [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), mientras que los modelos Classify están preentrenados en el conjunto de datos [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -Los [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) se descargan automáticamente desde el último lanzamiento de Ultralytics [release](https://github.com/ultralytics/assets/releases) en su primer uso. - -| Modelo | Tamaño
(píxeles) | mAPcaja
50-95 | mAPmáscara
50-95 | Velocidad
CPU ONNX
(ms) | Velocidad
A100 TensorRT
(ms) | Parámetros
(M) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|--------------------------|-----------------------|--------------------------|------------------------------------|-----------------------------------------|------------------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- Los valores **mAPval** son para un único modelo a una única escala en el conjunto de datos [COCO val2017](https://cocodataset.org). -
Reproducir utilizando `yolo val segment data=coco.yaml device=0` -- La **Velocidad** promediada sobre imágenes de COCO val utilizando una instancia de [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Reproducir utilizando `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` - -## Entrenamiento - -Entrena el modelo YOLOv8n-seg en el conjunto de datos COCO128-seg durante 100 épocas con tamaño de imagen de 640. Para una lista completa de argumentos disponibles, consulta la página de [Configuración](/../usage/cfg.md). - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-seg.yaml') # construir un nuevo modelo desde YAML - model = YOLO('yolov8n-seg.pt') # cargar un modelo preentrenado (recomendado para entrenamiento) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # construir desde YAML y transferir pesos - - # Entrenar el modelo - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construir un nuevo modelo desde YAML y comenzar a entrenar desde cero - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # Comenzar a entrenar desde un modelo *.pt preentrenado - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # Construir un nuevo modelo desde YAML, transferir pesos preentrenados y comenzar a entrenar - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### Formato del conjunto de datos - -El formato del conjunto de datos de segmentación YOLO puede encontrarse detallado en la [Guía de Conjuntos de Datos](../../../datasets/segment/index.md). Para convertir tu conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO, utiliza la herramienta [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) de Ultralytics. - -## Validación - -Valida la precisión del modelo YOLOv8n-seg entrenado en el conjunto de datos COCO128-seg. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-seg.pt') # cargar un modelo oficial - model = YOLO('ruta/a/mejor.pt') # cargar un modelo personalizado - - # Validar el modelo - metrics = model.val() # no se necesitan argumentos, el conjunto de datos y configuraciones se recuerdan - metrics.box.map # map50-95(B) - metrics.box.map50 # map50(B) - metrics.box.map75 # map75(B) - metrics.box.maps # una lista contiene map50-95(B) de cada categoría - metrics.seg.map # map50-95(M) - metrics.seg.map50 # map50(M) - metrics.seg.map75 # map75(M) - metrics.seg.maps # una lista contiene map50-95(M) de cada categoría - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # validar el modelo oficial - yolo segment val model=ruta/a/mejor.pt # validar el modelo personalizado - ``` - -## Predicción - -Usa un modelo YOLOv8n-seg entrenado para realizar predicciones en imágenes. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-seg.pt') # cargar un modelo oficial - model = YOLO('ruta/a/mejor.pt') # cargar un modelo personalizado - - # Predecir con el modelo - results = model('https://ultralytics.com/images/bus.jpg') # predecir en una imagen - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # predecir con el modelo oficial - yolo segment predict model=ruta/a/mejor.pt source='https://ultralytics.com/images/bus.jpg' # predecir con el modelo personalizado - ``` - -Consulta todos los detalles del modo `predict` en la página de [Predicción](https://docs.ultralytics.com/modes/predict/). - -## Exportación - -Exporta un modelo YOLOv8n-seg a un formato diferente como ONNX, CoreML, etc. - -!!! Example "Ejemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Cargar un modelo - model = YOLO('yolov8n-seg.pt') # cargar un modelo oficial - model = YOLO('ruta/a/mejor.pt') # cargar un modelo entrenado personalizado - - # Exportar el modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # exportar el modelo oficial - yolo export model=ruta/a/mejor.pt format=onnx # exportar el modelo entrenado personalizado - ``` - -Los formatos disponibles para exportar YOLOv8-seg se muestran en la tabla a continuación. Puedes predecir o validar directamente en modelos exportados, es decir, `yolo predict model=yolov8n-seg.onnx`. Se muestran ejemplos de uso para tu modelo después de que se completa la exportación. - -| Formato | Argumento `format` | Modelo | Metadatos | Argumentos | -|--------------------------------------------------------------------|--------------------|-------------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | - -Consulta todos los detalles del modo `export` en la página de [Exportación](https://docs.ultralytics.com/modes/export/). diff --git a/docs/fr/datasets/index.md b/docs/fr/datasets/index.md deleted file mode 100644 index 21889ea0aa0..00000000000 --- a/docs/fr/datasets/index.md +++ /dev/null @@ -1,127 +0,0 @@ ---- -comments: true -description: Explorez divers ensembles de données de vision par ordinateur pris en charge par Ultralytics pour la détection d'objets, la segmentation, l'estimation de la pose, la classification d'images et le suivi multi-objets. -keywords: vision par ordinateur, ensembles de données, Ultralytics, YOLO, détection d'objets, segmentation d'instance, estimation de la pose, classification d'images, suivi multi-objets ---- - -# Aperçu des ensembles de données - -Ultralytics fournit un soutien pour divers ensembles de données pour faciliter les tâches de vision par ordinateur telles que la détection, la segmentation d'instance, l'estimation de la pose, la classification et le suivi multi-objets. Ci-dessous se trouve une liste des principaux ensembles de données Ultralytics, suivie d'un résumé de chaque tâche de vision par ordinateur et des ensembles de données respectifs. - -!!! Note "Note" - - 🚧 Notre documentation multilingue est actuellement en cours de construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏 - -## [Ensembles de données de détection](../../datasets/detect/index.md) - -La détection d'objets par boîte englobante est une technique de vision par ordinateur qui consiste à détecter et localiser des objets dans une image en dessinant une boîte englobante autour de chaque objet. - -- [Argoverse](../../datasets/detect/argoverse.md) : Un ensemble de données contenant des données de suivi 3D et de prévision de mouvement dans des environnements urbains avec des annotations détaillées. -- [COCO](../../datasets/detect/coco.md) : Un ensemble de données de grande échelle conçu pour la détection d'objets, la segmentation et l'annotation avec plus de 200K images étiquetées. -- [COCO8](../../datasets/detect/coco8.md) : Contient les 4 premières images de COCO train et COCO val, adaptées pour des tests rapides. -- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md) : Un ensemble de données d'images de têtes de blé recueillies dans le monde entier pour les tâches de détection et de localisation d'objets. -- [Objects365](../../datasets/detect/objects365.md) : Un ensemble de données de grande qualité et à grande échelle pour la détection d'objets avec 365 catégories d'objets et plus de 600K images annotées. -- [OpenImagesV7](../../datasets/detect/open-images-v7.md) : Un ensemble de données complet de Google avec 1.7M d'images d'entraînement et 42k images de validation. -- [SKU-110K](../../datasets/detect/sku-110k.md) : Un ensemble de données mettant en vedette la détection d'objets denses dans les environnements de vente au détail avec plus de 11K images et 1.7 million de boîtes englobantes. -- [VisDrone](../../datasets/detect/visdrone.md) : Un ensemble de données contenant des données de détection d'objets et de suivi multi-objets à partir d'images capturées par drone avec plus de 10K images et séquences vidéo. -- [VOC](../../datasets/detect/voc.md) : L'ensemble de données de classes d'objets visuels Pascal (VOC) pour la détection d'objets et la segmentation avec 20 classes d'objets et plus de 11K images. -- [xView](../../datasets/detect/xview.md) : Un ensemble de données pour la détection d'objets dans l'imagerie aérienne avec 60 catégories d'objets et plus d'un million d'objets annotés. - -## [Ensembles de données de segmentation d'instance](../../datasets/segment/index.md) - -La segmentation d'instance est une technique de vision par ordinateur qui consiste à identifier et localiser des objets dans une image au niveau des pixels. - -- [COCO](../../datasets/segment/coco.md) : Un ensemble de données de grande échelle conçu pour la détection d'objets, la segmentation et les tâches d'annotation avec plus de 200K images étiquetées. -- [COCO8-seg](../../datasets/segment/coco8-seg.md) : Un ensemble de données plus petit pour les tâches de segmentation d'instance, contenant un sous-ensemble de 8 images COCO avec des annotations de segmentation. - -## [Estimation de pose](../../datasets/pose/index.md) - -L'estimation de la pose est une technique utilisée pour déterminer la pose de l'objet par rapport à la caméra ou au système de coordonnées mondial. - -- [COCO](../../datasets/pose/coco.md) : Un ensemble de données de grande échelle avec des annotations de poses humaines conçu pour les tâches d'estimation de la pose. -- [COCO8-pose](../../datasets/pose/coco8-pose.md) : Un ensemble de données plus petit pour les tâches d'estimation de la pose, contenant un sous-ensemble de 8 images COCO avec des annotations de pose humaine. -- [Tiger-pose](../../datasets/pose/tiger-pose.md) : Un ensemble de données compact composé de 263 images centrées sur les tigres, annotées avec 12 points par tigre pour les tâches d'estimation de la pose. - -## [Classification](../../datasets/classify/index.md) - -La classification d'images est une tâche de vision par ordinateur qui implique de catégoriser une image dans une ou plusieurs classes ou catégories prédéfinies en fonction de son contenu visuel. - -- [Caltech 101](../../datasets/classify/caltech101.md) : Un ensemble de données contenant des images de 101 catégories d'objets pour les tâches de classification d'images. -- [Caltech 256](../../datasets/classify/caltech256.md) : Une version étendue de Caltech 101 avec 256 catégories d'objets et des images plus complexes. -- [CIFAR-10](../../datasets/classify/cifar10.md) : Un ensemble de données de 60K images couleur 32x32 réparties en 10 classes, avec 6K images par classe. -- [CIFAR-100](../../datasets/classify/cifar100.md) : Une version étendue de CIFAR-10 avec 100 catégories d'objets et 600 images par classe. -- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md) : Un ensemble de données composé de 70 000 images en niveaux de gris de 10 catégories de mode pour les tâches de classification d'images. -- [ImageNet](../../datasets/classify/imagenet.md) : Un ensemble de données à grande échelle pour la détection d'objets et la classification d'images avec plus de 14 millions d'images et 20 000 catégories. -- [ImageNet-10](../../datasets/classify/imagenet10.md) : Un sous-ensemble plus petit d'ImageNet avec 10 catégories pour des expériences et des tests plus rapides. -- [Imagenette](../../datasets/classify/imagenette.md) : Un sous-ensemble plus petit d'ImageNet qui contient 10 classes facilement distinctes pour un entraînement et des tests plus rapides. -- [Imagewoof](../../datasets/classify/imagewoof.md) : Un sous-ensemble d'ImageNet plus difficile contenant 10 catégories de races de chiens pour les tâches de classification d'images. -- [MNIST](../../datasets/classify/mnist.md) : Un ensemble de données de 70 000 images en niveaux de gris de chiffres manuscrits pour les tâches de classification d'images. - -## [Boîtes Englobantes Orientées (OBB)](../../datasets/obb/index.md) - -Les Boîtes Englobantes Orientées (OBB) sont une méthode en vision par ordinateur pour détecter des objets inclinés dans les images en utilisant des boîtes englobantes rotatives, souvent appliquée à l'imagerie aérienne et satellite. - -- [DOTAv2](../../datasets/obb/dota-v2.md) : Un ensemble de données d'imagerie aérienne populaire avec 1.7 million d'instances et 11 268 images. - -## [Suivi Multi-Objets](../../datasets/track/index.md) - -Le suivi multi-objets est une technique de vision par ordinateur qui consiste à détecter et suivre plusieurs objets dans le temps dans une séquence vidéo. - -- [Argoverse](../../datasets/detect/argoverse.md) : Un ensemble de données contenant des données de suivi 3D et de prévision de mouvement dans des environnements urbains avec des annotations détaillées pour les tâches de suivi multi-objets. -- [VisDrone](../../datasets/detect/visdrone.md) : Un ensemble de données contenant des données de détection d'objets et de suivi multi-objets à partir d'images capturées par drone avec plus de 10K images et séquences vidéo. - -## Contribuer de Nouveaux Ensembles de Données - -Contribuer un nouvel ensemble de données implique plusieurs étapes pour s'assurer qu'il s'aligne bien avec l'infrastructure existante. Voici les étapes nécessaires : - -### Étapes pour Contribuer un Nouvel Ensemble de Données - -1. **Collecter des Images** : Rassemblez les images qui appartiennent à l'ensemble de données. Celles-ci pourraient être collectées à partir de différentes sources, telles que des bases de données publiques ou votre propre collection. - -2. **Annoter des Images** : Annotez ces images avec des boîtes englobantes, des segments ou des points clés, en fonction de la tâche. - -3. **Exporter des Annotations** : Convertissez ces annotations au format de fichier YOLO `*.txt` pris en charge par Ultralytics. - -4. **Organiser l'Ensemble de Données** : Rangez votre ensemble de données dans la bonne structure de dossiers. Vous devriez avoir des répertoires de niveau supérieur `train/` et `val/`, et à l'intérieur de chacun, un sous-répertoire `images/` et `labels/`. - - ``` - dataset/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **Créer un Fichier `data.yaml`** : Dans le répertoire racine de votre ensemble de données, créez un fichier `data.yaml` qui décrit l'ensemble de données, les classes et les autres informations nécessaires. - -6. **Optimiser les Images (Optionnel)** : Si vous souhaitez réduire la taille de l'ensemble de données pour un traitement plus efficace, vous pouvez optimiser les images en utilisant le code ci-dessous. Ceci n'est pas requis, mais recommandé pour des tailles d'ensemble de données plus petites et des vitesses de téléchargement plus rapides. - -7. **Zipper l'Ensemble de Données** : Compressez le dossier complet de l'ensemble de données dans un fichier zip. - -8. **Documenter et PR** : Créez une page de documentation décrivant votre ensemble de données et comment il s'intègre dans le cadre existant. Après cela, soumettez une Pull Request (PR). Référez-vous aux [lignes directrices de contribution Ultralytics](https://docs.ultralytics.com/help/contributing) pour plus de détails sur la manière de soumettre une PR. - -### Exemple de Code pour Optimiser et Zipper un Ensemble de Données - -!!! Example "Optimiser et Zipper un Ensemble de Données" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # Définir le répertoire de l'ensemble de données - path = Path('chemin/vers/ensemble-de-données') - - # Optimiser les images dans l'ensemble de données (optionnel) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # Zipper l'ensemble de données dans 'chemin/vers/ensemble-de-données.zip' - zip_directory(path) - ``` - -En suivant ces étapes, vous pouvez contribuer un nouvel ensemble de données qui s'intègre bien avec la structure existante d'Ultralytics. diff --git a/docs/fr/index.md b/docs/fr/index.md deleted file mode 100644 index 960c4e275eb..00000000000 --- a/docs/fr/index.md +++ /dev/null @@ -1,83 +0,0 @@ ---- -comments: true -description: Découvrez un guide complet du modèle Ultralytics YOLOv8, un modèle de détection d'objets et de segmentation d'images à haute vitesse et haute précision. Tutoriels d'installation, de prédiction, d'entraînement et plus encore. -keywords: Ultralytics, YOLOv8, détection d'objets, segmentation d'images, apprentissage automatique, apprentissage profond, vision par ordinateur, installation de YOLOv8, prédiction avec YOLOv8, entraînement de YOLOv8, histoire de YOLO, licences de YOLO ---- - -
-

- - Bannière Ultralytics YOLO -

- GitHub Ultralytics - space - LinkedIn Ultralytics - space - Twitter Ultralytics - space - YouTube Ultralytics - space - TikTok Ultralytics - space - Instagram Ultralytics - space - Discord Ultralytics -
-
- Intégration continue Ultralytics - Couverture de code Ultralytics - Citation YOLOv8 - Téléchargements Docker - Discord -
- Exécuter sur Gradient - Ouvrir dans Colab - Ouvrir dans Kaggle -
- -Présentation d'[Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics), la dernière version du modèle réputé de détection d'objets en temps réel et de segmentation d'images. YOLOv8 est construit sur des avancées de pointe en apprentissage profond et vision par ordinateur, offrant des performances inégalées en termes de vitesse et de précision. Sa conception épurée le rend adapté à diverses applications et facilement adaptable à différentes plateformes matérielles, des appareils de bord aux API cloud. - -Explorez les Docs YOLOv8, une ressource complète conçue pour vous aider à comprendre et à utiliser ses fonctionnalités et capacités. Que vous soyez un praticien chevronné de l'apprentissage automatique ou nouveau dans le domaine, ce hub vise à maximiser le potentiel de YOLOv8 dans vos projets. - -!!! Note "Note" - - 🚧 Notre documentation multilingue est actuellement en construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏 - -## Par où commencer - -- **Installer** `ultralytics` avec pip et démarrer en quelques minutes   [:material-clock-fast: Commencer](quickstart.md){ .md-button } -- **Prédire** de nouvelles images et vidéos avec YOLOv8   [:octicons-image-16: Prédire sur Images](modes/predict.md){ .md-button } -- **Entraîner** un nouveau modèle YOLOv8 sur votre propre ensemble de données customisé   [:fontawesome-solid-brain: Entraîner un modèle](modes/train.md){ .md-button } -- **Explorer** les tâches YOLOv8 comme la segmentation, la classification, l'estimation de pose et le suivi   [:material-magnify-expand: Explorer les tâches](tasks/index.md){ .md-button } - -

-
- -
- Regarder : Comment entraîner un modèle YOLOv8 sur votre ensemble de données customisé dans Google Colab. -

- -## YOLO : Un bref historique - -[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once), un modèle populaire de détection d'objets et de segmentation d'images, a été développé par Joseph Redmon et Ali Farhadi à l'Université de Washington. Lancé en 2015, YOLO a rapidement gagné en popularité pour sa vitesse et sa précision élevées. - -- [YOLOv2](https://arxiv.org/abs/1612.08242), publié en 2016, a amélioré le modèle original en intégrant la normalisation par lots, les boîtes d'ancrage et les clusters de dimensions. -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), lancé en 2018, a davantage amélioré la performance du modèle en utilisant un réseau dorsal plus efficace, des ancres multiples et un pool pyramidal spatial. -- [YOLOv4](https://arxiv.org/abs/2004.10934) a été publié en 2020, introduisant des innovations telles que l'augmentation de données Mosaic, une nouvelle tête de détection sans ancre et une nouvelle fonction de perte. -- [YOLOv5](https://github.com/ultralytics/yolov5) a encore amélioré la performance du modèle et a ajouté des fonctionnalités nouvelles telles que l'optimisation des hyperparamètres, le suivi intégré des expériences et l'export automatique vers des formats d'exportation populaires. -- [YOLOv6](https://github.com/meituan/YOLOv6) a été rendu open-source par [Meituan](https://about.meituan.com/) en 2022 et est utilisé dans de nombreux robots de livraison autonomes de l'entreprise. -- [YOLOv7](https://github.com/WongKinYiu/yolov7) a ajouté des tâches supplémentaires telles que l'estimation de pose sur le jeu de données de points clés COCO. -- [YOLOv8](https://github.com/ultralytics/ultralytics) est la dernière version de YOLO par Ultralytics. En tant que modèle de pointe et dernier cri (state-of-the-art, SOTA), YOLOv8 s'appuie sur le succès des versions précédentes, introduisant de nouvelles fonctionnalités et améliorations pour des performances, une flexibilité et une efficacité renforcées. YOLOv8 prend en charge une gamme complète de tâches d'intelligence artificielle visuelle, y compris la [détection](tasks/detect.md), la [segmentation](tasks/segment.md), l'[estimation de pose](tasks/pose.md), le [suivi](modes/track.md) et la [classification](tasks/classify.md). Cette polyvalence permet aux utilisateurs de tirer parti des capacités de YOLOv8 dans diverses applications et domaines. - -## Licences YOLO : Comment est licencié Ultralytics YOLO ? - -Ultralytics offre deux options de licence pour répondre aux différents cas d'utilisation : - -- **Licence AGPL-3.0** : Cette licence open source [approuvée par OSI](https://opensource.org/licenses/) est idéale pour les étudiants et les passionnés, favorisant la collaboration ouverte et le partage des connaissances. Voir le fichier [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) pour plus de détails. -- **Licence Enterprise** : Conçue pour un usage commercial, cette licence permet l'intégration transparente des logiciels et modèles d'IA Ultralytics dans des biens et services commerciaux, en contournant les exigences open source de l'AGPL-3.0. Si votre scénario implique l'incorporation de nos solutions dans une offre commerciale, n'hésitez pas à contacter [Ultralytics Licensing](https://ultralytics.com/license). - -Notre stratégie de licence est conçue pour garantir que toute amélioration de nos projets open source soit restituée à la communauté. Nous tenons les principes de l'open source à cœur ❤️, et notre mission est de garantir que nos contributions puissent être utilisées et développées de manière bénéfique pour tous. diff --git a/docs/fr/models/fast-sam.md b/docs/fr/models/fast-sam.md deleted file mode 100644 index f741b83bd91..00000000000 --- a/docs/fr/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: Découvrez FastSAM, une solution basée sur les réseaux de neurones à convolution (CNN) pour la segmentation d'objets en temps réel dans les images. Interaction utilisateur améliorée, efficacité computationnelle et adaptabilité à différentes tâches de vision. -keywords: FastSAM, apprentissage automatique, solution basée sur les CNN, segmentation d'objets, solution en temps réel, Ultralytics, tâches de vision, traitement d'images, applications industrielles, interaction utilisateur ---- - -# Fast Segment Anything Model (FastSAM) - -Le Fast Segment Anything Model (FastSAM) est une solution basée sur les réseaux de neurones à convolution (CNN) en temps réel pour la tâche Segment Anything. Cette tâche est conçue pour segmenter n'importe quel objet dans une image en fonction de différentes interactions utilisateur possibles. FastSAM réduit considérablement les demandes computationnelles tout en maintenant des performances compétitives, ce qui en fait un choix pratique pour diverses tâches de vision. - -![Vue d'ensemble de l'architecture du Fast Segment Anything Model (FastSAM)](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## Vue d'ensemble - -FastSAM est conçu pour remédier aux limitations du [Segment Anything Model (SAM)](sam.md), un modèle Transformer lourd nécessitant des ressources computationnelles importantes. FastSAM découpe la tâche de segmentation en deux étapes séquentielles : la segmentation de toutes les instances et la sélection guidée par une invitation. La première étape utilise [YOLOv8-seg](../tasks/segment.md) pour produire les masques de segmentation de toutes les instances de l'image. Dans la deuxième étape, il génère la région d'intérêt correspondant à l'invitation. - -## Fonctionnalités clés - -1. **Solution en temps réel :** En exploitant l'efficacité computationnelle des CNN, FastSAM fournit une solution en temps réel pour la tâche Segment Anything, ce qui en fait une solution précieuse pour les applications industrielles nécessitant des résultats rapides. - -2. **Efficacité et performances :** FastSAM offre une réduction significative des demandes computationnelles et des ressources sans compromettre la qualité des performances. Il atteint des performances comparables à SAM, mais avec une réduction drastique des ressources computationnelles, ce qui permet une application en temps réel. - -3. **Segmentation guidée par une invitation :** FastSAM peut segmenter n'importe quel objet dans une image, guidé par différentes invitations d'interaction utilisateur possibles, offrant ainsi flexibilité et adaptabilité dans différents scénarios. - -4. **Basé sur YOLOv8-seg :** FastSAM est basé sur [YOLOv8-seg](../tasks/segment.md), un détecteur d'objets équipé d'une branche de segmentation d'instances. Cela lui permet de produire efficacement les masques de segmentation de toutes les instances dans une image. - -5. **Résultats concurrentiels sur les bancs d'essai :** Dans la tâche de proposition d'objets sur MS COCO, FastSAM obtient des scores élevés à une vitesse significativement plus rapide que [SAM](sam.md) sur une seule NVIDIA RTX 3090, démontrant ainsi son efficacité et sa capacité. - -6. **Applications pratiques :** Cette approche propose une nouvelle solution pratique pour un grand nombre de tâches de vision à une vitesse très élevée, des dizaines ou des centaines de fois plus rapide que les méthodes actuelles. - -7. **Faisabilité de la compression du modèle :** FastSAM démontre la faisabilité d'une voie qui peut réduire considérablement l'effort computationnel en introduisant une contrainte artificielle dans la structure, ouvrant ainsi de nouvelles possibilités pour l'architecture de modèles de grande taille pour les tâches de vision générales. - -## Modèles disponibles, tâches prises en charge et modes d'exploitation - -Ce tableau présente les modèles disponibles avec leurs poids pré-entraînés spécifiques, les tâches qu'ils prennent en charge et leur compatibilité avec différents modes d'exploitation tels que [Inférence](../modes/predict.md), [Validation](../modes/val.md), [Entraînement](../modes/train.md) et [Exportation](../modes/export.md), indiqués par des emojis ✅ pour les modes pris en charge et des emojis ❌ pour les modes non pris en charge. - -| Type de modèle | Poids pré-entraînés | Tâches prises en charge | Inférence | Validation | Entraînement | Exportation | -|----------------|---------------------|-------------------------------------------------|-----------|------------|--------------|-------------| -| FastSAM-s | `FastSAM-s.pt` | [Segmentation d'instances](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [Segmentation d'instances](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Exemples d'utilisation - -Les modèles FastSAM sont faciles à intégrer dans vos applications Python. Ultralytics propose une API Python conviviale et des commandes CLI pour simplifier le développement. - -### Utilisation de la prédiction - -Pour effectuer une détection d'objets sur une image, utilisez la méthode `Predict` comme indiqué ci-dessous : - -!!! Example "Exemple" - - === "Python" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # Définir une source d'inférence - source = 'chemin/vers/bus.jpg' - - # Créer un modèle FastSAM - model = FastSAM('FastSAM-s.pt') # ou FastSAM-x.pt - - # Effectuer une inférence sur une image - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # Préparer un objet Processus Invitation - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # Invitation Everything - ann = prompt_process.everything_prompt() - - # Bbox shape par défaut [0,0,0,0] -> [x1,y1,x2,y2] - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # Invitation Text - ann = prompt_process.text_prompt(text='une photo d\'un chien') - - # Invitation Point - # points par défaut [[0,0]] [[x1,y1],[x2,y2]] - # point_label par défaut [0] [1,0] 0:fond, 1:premier plan - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # Charger un modèle FastSAM et segmenter tout avec - yolo segment predict model=FastSAM-s.pt source=chemin/vers/bus.jpg imgsz=640 - ``` - -Cet exemple démontre la simplicité du chargement d'un modèle pré-entraîné et de l'exécution d'une prédiction sur une image. - -### Utilisation de la validation - -La validation du modèle sur un ensemble de données peut être effectuée de la manière suivante : - -!!! Example "Exemple" - - === "Python" - ```python - from ultralytics import FastSAM - - # Créer un modèle FastSAM - model = FastSAM('FastSAM-s.pt') # ou FastSAM-x.pt - - # Valider le modèle - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # Charger un modèle FastSAM et le valider sur l'ensemble de données d'exemple COCO8 avec une taille d'image de 640 pixels - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -Veuillez noter que FastSAM ne prend en charge que la détection et la segmentation d'une seule classe d'objet. Cela signifie qu'il reconnaîtra et segmentera tous les objets comme étant de la même classe. Par conséquent, lors de la préparation de l'ensemble de données, vous devez convertir tous les identifiants de catégorie d'objet en 0. - -## Utilisation officielle de FastSAM - -FastSAM est également disponible directement à partir du dépôt [https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM). Voici un bref aperçu des étapes typiques que vous pourriez suivre pour utiliser FastSAM : - -### Installation - -1. Clonez le dépôt FastSAM : - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. Créez et activez un environnement Conda avec Python 3.9 : - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. Accédez au dépôt cloné et installez les packages requis : - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. Installez le modèle CLIP : - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### Exemple d'utilisation - -1. Téléchargez un [point de contrôle de modèle](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing). - -2. Utilisez FastSAM pour l'inférence. Exemples de commandes : - - - Segmentez tout dans une image : - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - Segmentez des objets spécifiques à l'aide de l'invitation de texte : - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "le chien jaune" - ``` - - - Segmentez des objets dans un rectangle englobant (fournir les coordonnées du rectangle au format xywh) : - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - Segmentez des objets à proximité de points spécifiques : - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -De plus, vous pouvez essayer FastSAM via une [démonstration Colab](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing) ou sur la [démonstration Web HuggingFace](https://huggingface.co/spaces/An-619/FastSAM) pour une expérience visuelle. - -## Citations et remerciements - -Nous tenons à remercier les auteurs de FastSAM pour leurs contributions importantes dans le domaine de la segmentation d'instances en temps réel : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Le document original FastSAM peut être consulté sur [arXiv](https://arxiv.org/abs/2306.12156). Les auteurs ont rendu leur travail accessible au public, et le code source peut être consulté sur [GitHub](https://github.com/CASIA-IVA-Lab/FastSAM). Nous apprécions leurs efforts pour faire avancer le domaine et rendre leur travail accessible à la communauté dans son ensemble. diff --git a/docs/fr/models/index.md b/docs/fr/models/index.md deleted file mode 100644 index abf329dd8e1..00000000000 --- a/docs/fr/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Explorez la gamme diversifiée de modèles de la famille YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS et RT-DETR pris en charge par Ultralytics. Commencez avec des exemples pour l'utilisation CLI et Python. -keywords: Ultralytics, documentation, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, modèles, architectures, Python, CLI ---- - -# Modèles pris en charge par Ultralytics - -Bienvenue dans la documentation des modèles d'Ultralytics ! Nous offrons un soutien pour une large gamme de modèles, chacun étant adapté à des tâches spécifiques comme [la détection d'objets](../tasks/detect.md), [la segmentation d'instance](../tasks/segment.md), [la classification d'images](../tasks/classify.md), [l'estimation de pose](../tasks/pose.md), et [le suivi multi-objets](../modes/track.md). Si vous êtes intéressé à contribuer avec votre architecture de modèle à Ultralytics, consultez notre [Guide de Contribution](../../help/contributing.md). - -!!! Note "Remarque" - - 🚧 Notre documentation dans différentes langues est actuellement en construction, et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏 - -## Modèles en vedette - -Voici quelques-uns des modèles clés pris en charge : - -1. **[YOLOv3](yolov3.md)** : La troisième itération de la famille de modèles YOLO, initialement par Joseph Redmon, connue pour ses capacités de détection d'objets en temps réel efficaces. -2. **[YOLOv4](yolov4.md)** : Une mise à jour native darknet de YOLOv3, publiée par Alexey Bochkovskiy en 2020. -3. **[YOLOv5](yolov5.md)** : Une version améliorée de l'architecture YOLO par Ultralytics, offrant de meilleures performances et compromis de vitesse par rapport aux versions précédentes. -4. **[YOLOv6](yolov6.md)** : Publié par [Meituan](https://about.meituan.com/) en 2022, et utilisé dans beaucoup de ses robots de livraison autonomes. -5. **[YOLOv7](yolov7.md)** : Modèles YOLO mis à jour publiés en 2022 par les auteurs de YOLOv4. -6. **[YOLOv8](yolov8.md) NOUVEAU 🚀**: La dernière version de la famille YOLO, présentant des capacités améliorées telles que la segmentation d'instance, l'estimation de pose/points clés et la classification. -7. **[Segment Anything Model (SAM)](sam.md)** : Le modèle Segment Anything Model (SAM) de Meta. -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)** : MobileSAM pour applications mobiles, développé par l'Université de Kyung Hee. -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)** : FastSAM par le Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences. -10. **[YOLO-NAS](yolo-nas.md)** : Modèles de Recherche d'Architecture Neuronale YOLO (NAS). -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)** : Modèles du Transformateur de Détection en Temps Réel (RT-DETR) de PaddlePaddle de Baidu. - -

-
- -
- Regardez : Exécutez les modèles YOLO d'Ultralytics en seulement quelques lignes de code. -

- -## Pour Commencer : Exemples d'Utilisation - -Cet exemple fournit des exemples simples d'entraînement et d'inférence YOLO. Pour une documentation complète sur ces [modes](../modes/index.md) et d'autres, consultez les pages de documentation [Prédire](../modes/predict.md), [Entraîner](../modes/train.md), [Val](../modes/val.md) et [Exporter](../modes/export.md). - -Notez que l'exemple ci-dessous concerne les modèles [Detect](../tasks/detect.md) YOLOv8 pour la détection d'objets. Pour des tâches supplémentaires prises en charge, voir les documentations [Segmenter](../tasks/segment.md), [Classifier](../tasks/classify.md) et [Poser](../tasks/pose.md). - -!!! Example "Exemple" - - === "Python" - - Des modèles pré-entraînés PyTorch `*.pt` ainsi que des fichiers de configuration `*.yaml` peuvent être passés aux classes `YOLO()`, `SAM()`, `NAS()` et `RTDETR()` pour créer une instance de modèle en Python : - - ```python - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné sur COCO - model = YOLO('yolov8n.pt') - - # Afficher les informations du modèle (optionnel) - model.info() - - # Entraîner le modèle sur le jeu de données exemple COCO8 pendant 100 époques - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Exécuter l'inférence avec le modèle YOLOv8n sur l'image 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Des commandes CLI sont disponibles pour exécuter directement les modèles : - - ```bash - # Charger un modèle YOLOv8n pré-entraîné sur COCO et l'entraîner sur le jeu de données exemple COCO8 pendant 100 époques - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Charger un modèle YOLOv8n pré-entraîné sur COCO et exécuter l'inférence sur l'image 'bus.jpg' - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## Contribution de Nouveaux Modèles - -Vous êtes intéressé à contribuer votre modèle à Ultralytics ? Génial ! Nous sommes toujours ouverts à l'expansion de notre portefeuille de modèles. - -1. **Forkez le Référentiel** : Commencez par forker le [référentiel GitHub d'Ultralytics](https://github.com/ultralytics/ultralytics). - -2. **Clonez Votre Fork** : Clonez votre fork sur votre machine locale et créez une nouvelle branche pour travailler dessus. - -3. **Implémentez Votre Modèle** : Ajoutez votre modèle en suivant les normes et directives de codage fournies dans notre [Guide de Contribution](../../help/contributing.md). - -4. **Testez Rigoureusement** : Assurez-vous de tester votre modèle de manière rigoureuse, à la fois isolément et comme partie du pipeline. - -5. **Créez une Pull Request** : Une fois que vous êtes satisfait de votre modèle, créez une pull request au répertoire principal pour examen. - -6. **Revue de Code & Fusion** : Après examen, si votre modèle répond à nos critères, il sera fusionné dans le répertoire principal. - -Pour des étapes détaillées, consultez notre [Guide de Contribution](../../help/contributing.md). diff --git a/docs/fr/models/mobile-sam.md b/docs/fr/models/mobile-sam.md deleted file mode 100644 index d011b039d30..00000000000 --- a/docs/fr/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: En savoir plus sur MobileSAM, son implémentation, la comparaison avec SAM d'origine, et comment le télécharger et le tester dans le cadre de l'environnement Ultralytics. Améliorez vos applications mobiles dès aujourd'hui. -keywords: MobileSAM, Ultralytics, SAM, applications mobiles, Arxiv, GPU, API, encodeur d'image, décodeur de masque, téléchargement de modèle, méthode de test ---- - -![Logo MobileSAM](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# Segmenter N'importe Quoi sur Mobile (MobileSAM) - -Le document MobileSAM est maintenant disponible sur [arXiv](https://arxiv.org/pdf/2306.14289.pdf). - -Une démonstration de MobileSAM exécutée sur un processeur CPU est accessible via ce [lien de démonstration](https://huggingface.co/spaces/dhkim2810/MobileSAM). Les performances sur un CPU Mac i5 prennent environ 3 secondes. Sur la démo de Hugging Face, l'interface ainsi que les CPU moins performants contribuent à une réponse plus lente, mais cela continue de fonctionner efficacement. - -MobileSAM est implémenté dans divers projets, notamment [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything), [AnyLabeling](https://github.com/vietanhdev/anylabeling), et [Segment Anything en 3D](https://github.com/Jumpat/SegmentAnythingin3D). - -MobileSAM est entraîné sur un seul GPU avec un ensemble de données de 100 000 images (1% des images originales) en moins d'une journée. Le code de cet entraînement sera disponible à l'avenir. - -## Modèles Disponibles, Tâches Prises en Charge et Modes d'Utilisation - -Ce tableau présente les modèles disponibles avec leurs poids pré-entraînés spécifiques, les tâches qu'ils prennent en charge, et leur compatibilité avec les différents modes d'utilisation tels que [Inférence](../modes/predict.md), [Validation](../modes/val.md), [Entraînement](../modes/train.md) et [Export](../modes/export.md), indiqués par les emojis ✅ pour les modes pris en charge et ❌ pour les modes non pris en charge. - -| Type de Modèle | Poids Pré-entraînés | Tâches Prises en Charge | Inférence | Validation | Entraînement | Export | -|----------------|---------------------|-------------------------------------------------|-----------|------------|--------------|--------| -| MobileSAM | `mobile_sam.pt` | [Segmentation d'Instances](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Passage de SAM à MobileSAM - -Étant donné que MobileSAM conserve le même pipeline que SAM d'origine, nous avons incorporé le pré-traitement, le post-traitement et toutes les autres interfaces de l'original. Par conséquent, ceux qui utilisent actuellement SAM d'origine peuvent passer à MobileSAM avec un effort minimal. - -MobileSAM a des performances comparables à celles de SAM d'origine et conserve le même pipeline à l'exception d'un changement dans l'encodeur d'image. Plus précisément, nous remplaçons l'encodeur d'image lourd original ViT-H (632M) par un encodeur Tiny-ViT plus petit (5M). Sur un seul GPU, MobileSAM fonctionne à environ 12 ms par image : 8 ms sur l'encodeur d'image et 4 ms sur le décodeur de masque. - -Le tableau suivant présente une comparaison des encodeurs d'image basés sur ViT : - -| Encodeur d'Image | SAM d'Origine | MobileSAM | -|------------------|---------------|-----------| -| Paramètres | 611M | 5M | -| Vitesse | 452 ms | 8 ms | - -SAM d'origine et MobileSAM utilisent tous deux le même décodeur de masque basé sur une instruction : - -| Décodeur de Masque | SAM d'Origine | MobileSAM | -|--------------------|---------------|-----------| -| Paramètres | 3.876M | 3.876M | -| Vitesse | 4 ms | 4 ms | - -Voici une comparaison du pipeline complet : - -| Pipeline Complet (Enc+Dec) | SAM d'Origine | MobileSAM | -|----------------------------|---------------|-----------| -| Paramètres | 615M | 9.66M | -| Vitesse | 456 ms | 12 ms | - -Les performances de MobileSAM et de SAM d'origine sont démontrées en utilisant à la fois un point et une boîte comme instructions. - -![Image avec un Point comme Instruction](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![Image avec une Boîte comme Instruction](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -Avec ses performances supérieures, MobileSAM est environ 5 fois plus petit et 7 fois plus rapide que FastSAM actuel. Plus de détails sont disponibles sur la [page du projet MobileSAM](https://github.com/ChaoningZhang/MobileSAM). - -## Test de MobileSAM dans Ultralytics - -Tout comme SAM d'origine, nous proposons une méthode de test simple dans Ultralytics, comprenant des modes pour les instructions Point et Boîte. - -### Téléchargement du modèle - -Vous pouvez télécharger le modèle [ici](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt). - -### Instruction Point - -!!! Example "Exemple" - - === "Python" - ```python - from ultralytics import SAM - - # Chargement du modèle - model = SAM('mobile_sam.pt') - - # Prédiction d'un segment à partir d'une instruction Point - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### Instruction Boîte - -!!! Example "Exemple" - - === "Python" - ```python - from ultralytics import SAM - - # Chargement du modèle - model = SAM('mobile_sam.pt') - - # Prédiction d'un segment à partir d'une instruction Boîte - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -Nous avons mis en œuvre `MobileSAM` et `SAM` en utilisant la même API. Pour plus d'informations sur l'utilisation, veuillez consulter la [page SAM](sam.md). - -## Citations et Remerciements - -Si vous trouvez MobileSAM utile dans vos travaux de recherche ou de développement, veuillez envisager de citer notre document : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/fr/models/rtdetr.md b/docs/fr/models/rtdetr.md deleted file mode 100644 index 13439be5a16..00000000000 --- a/docs/fr/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: Découvrez les fonctionnalités et les avantages de RT-DETR de Baidu, un détecteur d'objets en temps réel efficace et adaptable grâce aux Vision Transformers, incluant des modèles pré-entraînés. -keywords: RT-DETR, Baidu, Vision Transformers, détection d'objets, performance en temps réel, CUDA, TensorRT, sélection de requêtes informée par IoU, Ultralytics, API Python, PaddlePaddle ---- - -# RT-DETR de Baidu : un détecteur d'objets en temps réel basé sur les Vision Transformers - -## Présentation - -Le Real-Time Detection Transformer (RT-DETR), développé par Baidu, est un détecteur d'objets de pointe de bout en bout qui offre des performances en temps réel tout en maintenant une grande précision. Il exploite la puissance des Vision Transformers (ViT) pour traiter efficacement les caractéristiques multiscalaires en dissociant l'interaction intra-échelle et la fusion inter-échelles. RT-DETR est hautement adaptable, permettant un ajustement flexible de la vitesse d'inférence en utilisant différentes couches de décodeur sans nécessiter de nouvelle formation. Le modèle est performant sur des infrastructures accélérées telles que CUDA avec TensorRT, surpassant de nombreux autres détecteurs d'objets en temps réel. - -![Exemple d'image du modèle](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**Vue d'ensemble du RT-DETR de Baidu.** Le diagramme d'architecture du modèle RT-DETR montre les trois dernières étapes du réseau {S3, S4, S5} comme entrée de l'encodeur. L'encodeur hybride efficace transforme les caractéristiques multiscalaires en une séquence de caractéristiques d'image grâce à l'interaction à l'intérieur de l'échelle (AIFI - *Adeptation of Intra-scale Feature Interaction*) et au module de fusion inter-échelles (CCFM - *Cross-scale Context-aware Feature Fusion Module*). La sélection de requêtes informée par IoU est utilisée pour sélectionner un nombre fixe de caractéristiques d'image pour servir de requêtes d'objets initiales pour le décodeur. Enfin, le décodeur avec des têtes de prédictions auxiliaires optimise de manière itérative les requêtes d'objets pour générer des boîtes et des scores de confiance ([source](https://arxiv.org/pdf/2304.08069.pdf)). - -### Fonctionnalités principales - -- **Encodeur hybride efficace :** RT-DETR de Baidu utilise un encodeur hybride efficace qui traite les caractéristiques multiscalaires en dissociant l'interaction intra-échelle et la fusion inter-échelles. Cette conception unique basée sur les Vision Transformers réduit les coûts de calcul et permet une détection d'objets en temps réel. -- **Sélection de requêtes informée par IoU :** RT-DETR de Baidu améliore l'initialisation des requêtes d'objets en utilisant une sélection de requêtes informée par IoU. Cela permet au modèle de se concentrer sur les objets les plus pertinents de la scène, améliorant ainsi la précision de la détection. -- **Vitesse d'inférence adaptable :** RT-DETR de Baidu prend en charge des ajustements flexibles de la vitesse d'inférence en utilisant différentes couches de décodeur sans nécessiter de nouvelle formation. Cette adaptabilité facilite l'application pratique dans différents scénarios de détection d'objets en temps réel. - -## Modèles pré-entraînés - -L'API Python Ultralytics fournit des modèles pré-entraînés RT-DETR de PaddlePaddle avec différentes échelles : - -- RT-DETR-L : 53,0 % de précision moyenne (AP) sur COCO val2017, 114 images par seconde (FPS) sur GPU T4 -- RT-DETR-X : 54,8 % de précision moyenne (AP) sur COCO val2017, 74 images par seconde (FPS) sur GPU T4 - -## Exemples d'utilisation - -Cet exemple présente des exemples simples d'entraînement et d'inférence avec RT-DETRR. Pour une documentation complète sur ceux-ci et d'autres [modes](../modes/index.md), consultez les pages de documentation [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) et [Export](../modes/export.md). - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import RTDETR - - # Charger un modèle RT-DETR-l pré-entraîné sur COCO - model = RTDETR('rtdetr-l.pt') - - # Afficher des informations sur le modèle (facultatif) - model.info() - - # Entraîner le modèle sur l'ensemble de données d'exemple COCO8 pendant 100 époques - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Effectuer une inférence avec le modèle RT-DETR-l sur l'image 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # Charger un modèle RT-DETR-l pré-entraîné sur COCO et l'entraîner sur l'ensemble de données d'exemple COCO8 pendant 100 époques - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # Charger un modèle RT-DETR-l pré-entraîné sur COCO et effectuer une inférence sur l'image 'bus.jpg' - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## Tâches et modes pris en charge - -Ce tableau présente les types de modèles, les poids pré-entraînés spécifiques, les tâches prises en charge par chaque modèle et les différents modes ([Train](../modes/train.md), [Val](../modes/val.md), [Predict](../modes/predict.md), [Export](../modes/export.md)) pris en charge, indiqués par des emojis ✅. - -| Type de modèle | Poids pré-entraînés | Tâches prises en charge | Inférence | Validation | Entraînement | Export | -|---------------------|---------------------|------------------------------------------|-----------|------------|--------------|--------| -| RT-DETR Large | `rtdetr-l.pt` | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR Extra-Large | `rtdetr-x.pt` | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## Citations et Remerciements - -Si vous utilisez RT-DETR de Baidu dans votre travail de recherche ou de développement, veuillez citer l'[article original](https://arxiv.org/abs/2304.08069) : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Nous tenons à remercier Baidu et l'équipe [PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection) pour la création et la maintenance de cette précieuse ressource pour la communauté de la vision par ordinateur. Leur contribution au domaine avec le développement du détecteur d'objets en temps réel basé sur les Vision Transformers, RT-DETR, est grandement appréciée. - -*keywords: RT-DETR, Transformer, ViT, Vision Transformers, RT-DETR de Baidu, PaddlePaddle, Modèles PaddlePaddle RT-DETR pré-entraînés, utilisation de RT-DETR de Baidu, API Python Ultralytics, détection d'objets en temps réel* diff --git a/docs/fr/models/sam.md b/docs/fr/models/sam.md deleted file mode 100644 index 9dfed8a57bc..00000000000 --- a/docs/fr/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: Découvrez le modèle Segment Anything (SAM) de pointe d'Ultralytics permettant la segmentation d'images en temps réel. Apprenez-en davantage sur sa segmentation promptable, ses performances hors échantillon et comment l'utiliser. -keywords: Ultralytics, segmentation d'image, Segment Anything Model, SAM, SA-1B dataset, performances en temps réel, transfert hors échantillon, détection d'objets, analyse d'images, apprentissage automatique ---- - -# Segment Anything Model (SAM) - -Bienvenue à la pointe de la segmentation d'image avec le modèle Segment Anything, ou SAM. Ce modèle révolutionnaire a changé la donne en introduisant la segmentation d'image promptable avec des performances en temps réel, établissant de nouvelles normes dans le domaine. - -## Introduction à SAM : Le modèle Segment Anything - -Le modèle Segment Anything, ou SAM, est un modèle de segmentation d'image de pointe qui permet une segmentation promptable, offrant une polyvalence inégalée dans les tâches d'analyse d'image. SAM forme le cœur de l'initiative Segment Anything, un projet innovant qui introduit un modèle, une tâche et un jeu de données novateurs pour la segmentation d'images. - -La conception avancée de SAM lui permet de s'adapter à de nouvelles distributions et tâches d'images sans connaissance préalable, une fonctionnalité connue sous le nom de transfert hors échantillon. Entraîné sur le vaste ensemble de données [SA-1B](https://ai.facebook.com/datasets/segment-anything/), qui contient plus d'un milliard de masques répartis sur 11 millions d'images soigneusement sélectionnées, SAM a affiché des performances hors échantillon impressionnantes, dépassant les résultats entièrement supervisés précédents dans de nombreux cas. - -![Image d'échantillon de jeu de données](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -Exemple d'images avec des masques superposés provenant de notre nouveau jeu de données, SA-1B. SA-1B contient 11 millions d'images diverses, haute résolution, autorisées et protégeant la vie privée, ainsi que 1,1 milliard de masques de segmentation de haute qualité. Ces masques ont été annotés entièrement automatiquement par SAM, et comme le confirment des évaluations humaines et de nombreux tests, leur qualité et leur diversité sont élevées. Les images sont regroupées par nombre de masques par image pour la visualisation (il y a environ 100 masques par image en moyenne). - -## Caractéristiques clés du modèle Segment Anything (SAM) - -- **Tâche de segmentation promptable :** SAM a été conçu en gardant à l'esprit une tâche de segmentation promptable, ce qui lui permet de générer des masques de segmentation valides à partir de n'importe quelle indication donnée, telle que des indices spatiaux ou des indices textuels identifiant un objet. -- **Architecture avancée :** Le modèle Segment Anything utilise un puissant encodeur d'images, un encodeur de prompt et un décodeur de masques léger. Cette architecture unique permet une invitation flexible, un calcul de masques en temps réel et une prise en compte de l'ambiguïté dans les tâches de segmentation. -- **Le jeu de données SA-1B :** Introduit par le projet Segment Anything, le jeu de données SA-1B comprend plus d'un milliard de masques sur 11 millions d'images. En tant que plus grand jeu de données de segmentation à ce jour, il offre à SAM une source de données d'entraînement diversifiée et à grande échelle. -- **Performances hors échantillon :** SAM affiche des performances hors échantillon exceptionnelles dans diverses tâches de segmentation, ce qui en fait un outil prêt à l'emploi pour des applications diverses nécessitant un minimum d'ingénierie de prompt. - -Pour une analyse approfondie du modèle Segment Anything et du jeu de données SA-1B, veuillez visiter le [site web Segment Anything](https://segment-anything.com) et consulter l'article de recherche [Segment Anything](https://arxiv.org/abs/2304.02643). - -## Modèles disponibles, tâches prises en charge et modes d'exploitation - -Ce tableau présente les modèles disponibles avec leurs poids pré-entraînés spécifiques, les tâches qu'ils prennent en charge et leur compatibilité avec différents modes d'exploitation tels que [Inférence](../modes/predict.md), [Validation](../modes/val.md), [Entraînement](../modes/train.md) et [Exportation](../modes/export.md), indiqués par des emojis ✅ pour les modes pris en charge et des emojis ❌ pour les modes non pris en charge. - -| Type de modèle | Poids pré-entraînés | Tâches prises en charge | Inférence | Validation | Entraînement | Exportation | -|----------------|---------------------|------------------------------------------------|-----------|------------|--------------|-------------| -| SAM de base | `sam_b.pt` | [Segmentation d'instance](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| SAM large | `sam_l.pt` | [Segmentation d'instance](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Comment utiliser SAM : Polyvalence et puissance dans la segmentation d'images - -Le modèle Segment Anything peut être utilisé pour une multitude de tâches secondaires qui vont au-delà de ses données d'entraînement. Cela comprend la détection des contours, la génération de propositions d'objets, la segmentation d'instances et la prédiction préliminaire texte-à-masque. Grâce à l'ingénierie de prompts, SAM peut s'adapter rapidement à de nouvelles tâches et distributions de données de manière sans apprentissage, ce qui en fait un outil polyvalent et puissant pour tous vos besoins en matière de segmentation d'images. - -### Exemple de prédiction SAM - -!!! Example "Segmentation avec des prompts" - - Segmenter l'image avec des prompts donnés. - - === "Python" - - ```python - from ultralytics import SAM - - # Charger un modèle - model = SAM('sam_b.pt') - - # Afficher les informations sur le modèle (facultatif) - model.info() - - # Exécuter l'inférence avec un prompt de zones de délimitation - model('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # Exécuter l'inférence avec un prompt de points - model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "Segmenter tout" - - Segmenter toute l'image. - - === "Python" - - ```python - from ultralytics import SAM - - # Charger un modèle - model = SAM('sam_b.pt') - - # Afficher les informations sur le modèle (facultatif) - model.info() - - # Exécuter l'inférence - model('path/to/image.jpg') - ``` - - === "CLI" - - ```bash - # Exécuter l'inférence avec un modèle SAM - yolo predict model=sam_b.pt source=path/to/image.jpg - ``` - -- La logique ici est de segmenter toute l'image si vous ne passez aucun prompt (bboxes/points/masks). - -!!! Example "Exemple SAMPredictor" - - De cette manière, vous pouvez définir l'image une fois et exécuter l'inférence des prompts plusieurs fois sans exécuter l'encodeur d'image plusieurs fois. - - === "Inférence avec des prompts" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # Créer un SAMPredictor - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # Définir l'image - predictor.set_image("ultralytics/assets/zidane.jpg") # définir avec un fichier image - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # définir avec np.ndarray - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # Réinitialiser l'image - predictor.reset_image() - ``` - - Segmenter toute l'image avec des arguments supplémentaires. - - === "Segmenter tout" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # Créer un SAMPredictor - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # Segmenter avec des arguments supplémentaires - results = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- Plus d'arguments supplémentaires pour `Segmenter tout` voir la référence [`Predictor/generate`](../../../reference/models/sam/predict.md). - -## Comparaison de SAM avec YOLOv8 - -Nous comparons ici le plus petit modèle SAM de Meta, SAM-b, avec le plus petit modèle de segmentation d'Ultralytics, [YOLOv8n-seg](../tasks/segment.md) : - -| Modèle | Taille | Paramètres | Vitesse (CPU) | -|--------------------------------------------------------------|-----------------------------------|-----------------------------|-------------------------------------| -| SAM-b - Meta's SAM-b | 358 Mo | 94,7 M | 51096 ms/im | -| [MobileSAM](mobile-sam.md) | 40,7 Mo | 10,1 M | 46122 ms/im | -| [FastSAM-s](fast-sam.md) with YOLOv8 backbone | 23,7 Mo | 11,8 M | 115 ms/im | -| YOLOv8n-seg - Ultralytics [YOLOv8n-seg](../tasks/segment.md) | **6,7 Mo** (53,4 fois plus petit) | **3,4 M** (27,9 fois moins) | **59 ms/im** (866 fois plus rapide) | - -Cette comparaison montre les différences d'ordre de grandeur dans les tailles et les vitesses des modèles. Alors que SAM présente des fonctionnalités uniques pour la segmentation automatique, il ne rivalise pas directement avec les modèles de segmentation YOLOv8, qui sont plus petits, plus rapides et plus efficaces. - -Tests effectués sur un MacBook Apple M2 de 2023 avec 16 Go de RAM. Pour reproduire ce test : - -!!! Example "Exemple" - - === "Python" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # Profiler SAM-b - modèle = SAM('sam_b.pt') - modèle.info() - modèle('ultralytics/assets') - - # Profiler MobileSAM - modèle = SAM('mobile_sam.pt') - modèle.info() - modèle('ultralytics/assets') - - # Profiler FastSAM-s - modèle = FastSAM('FastSAM-s.pt') - modèle.info() - modèle('ultralytics/assets') - - # Profiler YOLOv8n-seg - modèle = YOLO('yolov8n-seg.pt') - modèle.info() - modèle('ultralytics/assets') - ``` - -## Annotation automatique : Un moyen rapide d'obtenir des jeux de données de segmentation - -L'annotation automatique est une fonctionnalité clé de SAM, permettant aux utilisateurs de générer un [jeu de données de segmentation](https://docs.ultralytics.com/datasets/segment) à l'aide d'un modèle de détection pré-entraîné. Cette fonctionnalité permet une annotation rapide et précise d'un grand nombre d'images, en contournant la nécessité d'une annotation manuelle chronophage. - -### Générez votre jeu de données de segmentation à l'aide d'un modèle de détection - -Pour annoter automatiquement votre jeu de données avec le framework Ultralytics, utilisez la fonction `auto_annotate` comme indiqué ci-dessous : - -!!! Example "Exemple" - - === "Python" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="path/to/images", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| Argument | Type | Description | Default | -|------------|----------------------|------------------------------------------------------------------------------------------------------------------------|--------------| -| data | str | Chemin d'accès à un dossier contenant les images à annoter. | | -| det_model | str, optionnel | Modèle de détection pré-entraîné YOLO. Par défaut, 'yolov8x.pt'. | 'yolov8x.pt' | -| sam_model | str, optionnel | Modèle de segmentation pré-entraîné SAM. Par défaut, 'sam_b.pt'. | 'sam_b.pt' | -| device | str, optionnel | Appareil sur lequel exécuter les modèles. Par défaut, une chaîne vide (CPU ou GPU, si disponible). | | -| output_dir | str, None, optionnel | Répertoire pour enregistrer les résultats annotés. Par défaut, un dossier 'labels' dans le même répertoire que 'data'. | None | - -La fonction `auto_annotate` prend en compte le chemin de vos images, avec des arguments optionnels pour spécifier les modèles de détection et de segmentation SAM pré-entraînés, l'appareil sur lequel exécuter les modèles et le répertoire de sortie pour enregistrer les résultats annotés. - -L'annotation automatique avec des modèles pré-entraînés peut réduire considérablement le temps et les efforts nécessaires pour créer des jeux de données de segmentation de haute qualité. Cette fonctionnalité est particulièrement bénéfique pour les chercheurs et les développeurs travaillant avec de grandes collections d'images, car elle leur permet de se concentrer sur le développement et l'évaluation des modèles plutôt que sur l'annotation manuelle. - -## Citations et remerciements - -Si vous trouvez SAM utile dans vos travaux de recherche ou de développement, veuillez envisager de citer notre article : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Nous tenons à exprimer notre gratitude à Meta AI pour la création et la maintenance de cette ressource précieuse pour la communauté de la vision par ordinateur. - -*keywords: Segment Anything, Segment Anything Model, SAM, Meta SAM, segmentation d'image, segmentation promptable, performances hors échantillon, jeu de données SA-1B, architecture avancée, annotation automatique, Ultralytics, modèles pré-entraînés, SAM de base, SAM large, segmentation d'instance, vision par ordinateur, IA, intelligence artificielle, apprentissage automatique, annotation de données, masques de segmentation, modèle de détection, modèle de détection YOLO, bibtex, Meta AI.* diff --git a/docs/fr/models/yolo-nas.md b/docs/fr/models/yolo-nas.md deleted file mode 100644 index 21b6979a037..00000000000 --- a/docs/fr/models/yolo-nas.md +++ /dev/null @@ -1,121 +0,0 @@ ---- -comments: true -description: Découvrez une documentation détaillée sur YOLO-NAS, un modèle de détection d'objets supérieur. Apprenez-en davantage sur ses fonctionnalités, les modèles pré-entraînés, son utilisation avec l'API Python d'Ultralytics, et bien plus encore. -keywords: YOLO-NAS, Deci AI, détection d'objets, apprentissage profond, recherche architecturale neuronale, API Python d'Ultralytics, modèle YOLO, modèles pré-entraînés, quantification, optimisation, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## Aperçu - -Développé par Deci AI, YOLO-NAS est un modèle de détection d'objets révolutionnaire. Il est le fruit d'une technologie avancée de recherche architecturale neuronale, minutieusement conçu pour pallier les limitations des précédents modèles YOLO. Avec des améliorations significatives en matière de prise en charge de la quantification et de compromis entre précision et latence, YOLO-NAS représente une avancée majeure en matière de détection d'objets. - -![Exemple de modèle](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**Aperçu de YOLO-NAS**. YOLO-NAS utilise des blocs adaptés à la quantification et une quantification sélective pour des performances optimales. Le modèle, une fois converti en version quantifiée INT8, présente une baisse de précision minimale, ce qui constitue une amélioration significative par rapport aux autres modèles. Ces avancées aboutissent à une architecture supérieure offrant des capacités de détection d'objets inégalées et des performances exceptionnelles. - -### Fonctionnalités clés - -- **Bloc de base compatible avec la quantification:** YOLO-NAS introduit un nouveau bloc de base adapté à la quantification, ce qui permet de pallier l'une des principales limitations des précédents modèles YOLO. -- **Entraînement sophistiqué et quantification:** YOLO-NAS utilise des schémas d'entraînement avancés et une quantification après l'entraînement pour améliorer les performances. -- **Optimisation AutoNAC et pré-entraînement:** YOLO-NAS utilise l'optimisation AutoNAC et est pré-entraîné sur des ensembles de données renommés tels que COCO, Objects365 et Roboflow 100. Ce pré-entraînement le rend extrêmement adapté aux tâches de détection d'objets ultérieures dans des environnements de production. - -## Modèles pré-entraînés - -Découvrez la puissance de la détection d'objets de nouvelle génération avec les modèles YOLO-NAS pré-entraînés fournis par Ultralytics. Ces modèles sont conçus pour offrir des performances exceptionnelles en termes de vitesse et de précision. Choisissez parmi une variété d'options adaptées à vos besoins spécifiques : - -| Modèle | mAP | Latence (ms) | -|------------------|-------|--------------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -Chaque variante de modèle est conçue pour offrir un équilibre entre la précision moyenne (mAP) et la latence, vous permettant ainsi d'optimiser vos tâches de détection d'objets en termes de performance et de vitesse. - -## Exemples d'utilisation - -Ultralytics a rendu les modèles YOLO-NAS faciles à intégrer dans vos applications Python grâce à notre package Python `ultralytics`. Le package fournit une interface conviviale pour simplifier le processus. - -Les exemples suivants montrent comment utiliser les modèles YOLO-NAS avec le package `ultralytics` pour l'inférence et la validation : - -### Exemples d'inférence et de validation - -Dans cet exemple, nous validons YOLO-NAS-s sur l'ensemble de données COCO8. - -!!! Example "Exemple" - - Cet exemple fournit un code simple pour l'inférence et la validation de YOLO-NAS. Pour gérer les résultats de l'inférence, consultez le mode [Predict](../modes/predict.md). Pour utiliser YOLO-NAS avec des modes supplémentaires, consultez [Val](../modes/val.md) et [Export](../modes/export.md). L'entraînement n'est pas pris en charge pour YOLO-NAS avec le package `ultralytics`. - - === "Python" - - Il est possible de passer des modèles pré-entraînés `*.pt` de PyTorch à la classe `NAS()` pour créer une instance de modèle en Python : - - ```python - from ultralytics import NAS - - # Charger un modèle YOLO-NAS-s pré-entraîné sur COCO - model = NAS('yolo_nas_s.pt') - - # Afficher les informations sur le modèle (facultatif) - model.info() - - # Valider le modèle sur l'ensemble de données COCO8 - results = model.val(data='coco8.yaml') - - # Effectuer une inférence avec le modèle YOLO-NAS-s sur l'image 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Des commandes CLI sont disponibles pour exécuter directement les modèles : - - ```bash - # Charger un modèle YOLO-NAS-s pré-entraîné sur COCO et valider ses performances sur l'ensemble de données COCO8 - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # Charger un modèle YOLO-NAS-s pré-entraîné sur COCO et effectuer une inférence sur l'image 'bus.jpg' - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## Tâches et modes pris en charge - -Nous proposons trois variantes des modèles YOLO-NAS : Small (s), Medium (m) et Large (l). Chaque variante est conçue pour répondre à des besoins computationnels et de performances différents : - -- **YOLO-NAS-s** : Optimisé pour les environnements où les ressources computationnelles sont limitées mais l'efficacité est primordiale. -- **YOLO-NAS-m** : Offre une approche équilibrée, adaptée à la détection d'objets polyvalente avec une précision accrue. -- **YOLO-NAS-l** : Adapté aux scénarios nécessitant la plus haute précision, où les ressources computationnelles sont moins contraignantes. - -Voici un aperçu détaillé de chaque modèle, comprenant des liens vers leurs poids pré-entraînés, les tâches qu'ils prennent en charge et leur compatibilité avec différents modes opérationnels. - -| Type de modèle | Poids pré-entraînés | Tâches prises en charge | Inférence | Validation | Entraînement | Export | -|----------------|-----------------------------------------------------------------------------------------------|------------------------------------------|-----------|------------|--------------|--------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## Citations et remerciements - -Si vous utilisez YOLO-NAS dans vos travaux de recherche ou de développement, veuillez citer SuperGradients : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -Nous exprimons notre gratitude à l'équipe [Super-Gradients](https://github.com/Deci-AI/super-gradients/) de Deci AI pour ses efforts dans la création et la maintenance de cette précieuse ressource pour la communauté de la vision par ordinateur. Nous sommes convaincus que YOLO-NAS, avec son architecture innovante et ses capacités de détection d'objets supérieures, deviendra un outil essentiel pour les développeurs et les chercheurs. - -*keywords: YOLO-NAS, Deci AI, détection d'objets, apprentissage profond, recherche architecturale neuronale, API Python d'Ultralytics, modèle YOLO, SuperGradients, modèles pré-entraînés, bloc de base compatible avec la quantification, schémas d'entraînement avancés, quantification après l'entraînement, optimisation AutoNAC, COCO, Objects365, Roboflow 100* diff --git a/docs/fr/models/yolov3.md b/docs/fr/models/yolov3.md deleted file mode 100644 index ca17b1df734..00000000000 --- a/docs/fr/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Obtenez un aperçu des modèles YOLOv3, YOLOv3-Ultralytics et YOLOv3u. Apprenez-en davantage sur leurs fonctionnalités clés, leur utilisation et les tâches prises en charge pour la détection d'objets. -keywords: YOLOv3, YOLOv3-Ultralytics, YOLOv3u, Détection d'objets, Inférence, Entraînement, Ultralytics ---- - -# YOLOv3, YOLOv3-Ultralytics et YOLOv3u - -## Aperçu - -Ce document présente un aperçu de trois modèles de détection d'objets étroitement liés, à savoir [YOLOv3](https://pjreddie.com/darknet/yolo/), [YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3) et [YOLOv3u](https://github.com/ultralytics/ultralytics). - -1. **YOLOv3**: Il s'agit de la troisième version de l'algorithme de détection d'objets You Only Look Once (YOLO). Initiée par Joseph Redmon, YOLOv3 a amélioré ses prédécesseurs en introduisant des fonctionnalités telles que des prédictions à plusieurs échelles et trois tailles différentes de noyaux de détection. - -2. **YOLOv3-Ultralytics**: Il s'agit de l'implémentation par Ultralytics du modèle YOLOv3. Il reproduit l'architecture d'origine de YOLOv3 et offre des fonctionnalités supplémentaires, telles que la prise en charge de plusieurs modèles pré-entraînés et des options de personnalisation plus faciles. - -3. **YOLOv3u**: Il s'agit d'une version mise à jour de YOLOv3-Ultralytics qui intègre la nouvelle tête de détection sans ancrage et sans objectivité utilisée dans les modèles YOLOv8. YOLOv3u conserve la même architecture de base et de cou de YOLOv3, mais avec la nouvelle tête de détection de YOLOv8. - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## Caractéristiques clés - -- **YOLOv3**: A introduit l'utilisation de trois échelles différentes pour la détection, en tirant parti de trois tailles différentes de noyaux de détection : 13x13, 26x26 et 52x52. Cela a considérablement amélioré la précision de la détection pour les objets de différentes tailles. De plus, YOLOv3 a ajouté des fonctionnalités telles que des prédictions multi-étiquettes pour chaque boîte englobante et un meilleur réseau d'extraction de caractéristiques. - -- **YOLOv3-Ultralytics**: L'implémentation d'Ultralytics de YOLOv3 offre les mêmes performances que le modèle d'origine, mais propose également un support supplémentaire pour plus de modèles pré-entraînés, des méthodes d'entraînement supplémentaires et des options de personnalisation plus faciles. Cela le rend plus polyvalent et convivial pour les applications pratiques. - -- **YOLOv3u**: Ce modèle mis à jour intègre la nouvelle tête de détection sans ancrage et sans objectivité de YOLOv8. En éliminant le besoin de boîtes d'ancrage prédéfinies et de scores d'objectivité, cette conception de tête de détection peut améliorer la capacité du modèle à détecter des objets de différentes tailles et formes. Cela rend YOLOv3u plus robuste et précis pour les tâches de détection d'objets. - -## Tâches et modes pris en charge - -Les modèles de la série YOLOv3, notamment YOLOv3, YOLOv3-Ultralytics et YOLOv3u, sont spécialement conçus pour les tâches de détection d'objets. Ces modèles sont réputés pour leur efficacité dans divers scénarios réels, alliant précision et rapidité. Chaque variante propose des fonctionnalités et des optimisations uniques, les rendant adaptés à une gamme d'applications. - -Les trois modèles prennent en charge un ensemble complet de modes, garantissant ainsi leur polyvalence à différentes étapes du déploiement et du développement du modèle. Ces modes comprennent [Inférence](../modes/predict.md), [Validation](../modes/val.md), [Entraînement](../modes/train.md) et [Export](../modes/export.md), offrant aux utilisateurs un ensemble complet d'outils pour une détection d'objets efficace. - -| Type de modèle | Tâches prises en charge | Inférence | Validation | Entraînement | Export | -|--------------------|------------------------------------------|-----------|------------|--------------|--------| -| YOLOv3 | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Ce tableau offre un aperçu rapide des capacités de chaque variante de YOLOv3, mettant en évidence leur polyvalence et leur pertinence pour diverses tâches et modes opérationnels dans les flux de travail de détection d'objets. - -## Exemples d'utilisation - -Cet exemple présente des exemples simples d'entraînement et d'inférence de YOLOv3. Pour une documentation complète sur ces exemples et d'autres [modes](../modes/index.md), consultez les pages de documentation sur [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) et [Export](../modes/export.md). - -!!! Example "Exemple" - - === "Python" - - Les modèles pré-entraînés PyTorch `*.pt`, ainsi que les fichiers de configuration `*.yaml`, peuvent être transmis à la classe `YOLO()` pour créer une instance de modèle en Python : - - ```python - from ultralytics import YOLO - - # Charger un modèle YOLOv3n pré-entraîné avec COCO - model = YOLO('yolov3n.pt') - - # Afficher les informations sur le modèle (facultatif) - model.info() - - # Entraîner le modèle sur l'ensemble de données d'exemple COCO8 pendant 100 époques - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Exécuter l'inférence avec le modèle YOLOv3n sur l'image 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Des commandes CLI sont disponibles pour exécuter directement les modèles : - - ```bash - # Charger un modèle YOLOv3n pré-entraîné avec COCO et l'entraîner sur l'ensemble de données d'exemple COCO8 pendant 100 époques - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Charger un modèle YOLOv3n pré-entraîné avec COCO et exécuter l'inférence sur l'image 'bus.jpg' - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## Citations et remerciements - -Si vous utilisez YOLOv3 dans le cadre de vos recherches, veuillez citer les articles originaux sur YOLO et le référentiel YOLOv3 d'Ultralytics : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -Merci à Joseph Redmon et Ali Farhadi pour le développement du YOLOv3 original. diff --git a/docs/fr/models/yolov4.md b/docs/fr/models/yolov4.md deleted file mode 100644 index 0221483eeb5..00000000000 --- a/docs/fr/models/yolov4.md +++ /dev/null @@ -1,71 +0,0 @@ ---- -comments: true -description: Découvrez notre guide détaillé sur YOLOv4, un détecteur d'objets en temps réel de pointe. Comprenez ses points forts architecturaux, ses fonctionnalités innovantes et des exemples d'application. -keywords: ultralytics, YOLOv4, détection d'objets, réseau neuronal, détection en temps réel, détecteur d'objets, apprentissage automatique ---- - -# YOLOv4: Détection d'Objets Rapide et Précise - -Bienvenue sur la page de documentation d'Ultralytics pour YOLOv4, un détecteur d'objets en temps réel de pointe lancé en 2020 par Alexey Bochkovskiy sur [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). YOLOv4 est conçu pour offrir un équilibre optimal entre vitesse et précision, en en faisant un excellent choix pour de nombreuses applications. - -![Schéma d'architecture de YOLOv4](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**Schéma d'architecture de YOLOv4**. Présentant la conception détaillée du réseau de YOLOv4, comprenant les composants backbone, neck et head, ainsi que leurs couches interconnectées pour une détection d'objets en temps réel optimale. - -## Introduction - -YOLOv4 signifie You Only Look Once version 4. Il s'agit d'un modèle de détection d'objets en temps réel développé pour remédier aux limitations des versions précédentes de YOLO comme [YOLOv3](yolov3.md) et d'autres modèles de détection d'objets. Contrairement à d'autres détecteurs d'objets basés sur des réseaux neuronaux convolutifs (CNN), YOLOv4 n'est pas seulement applicable aux systèmes de recommandation, mais aussi à la gestion de processus autonomes et à la réduction de l'entrée humaine. Son utilisation sur des unités de traitement graphique (GPU) conventionnelles permet une utilisation massive à un prix abordable, et il est conçu pour fonctionner en temps réel sur un GPU conventionnel tout en ne nécessitant qu'un seul de ces GPU pour l'entraînement. - -## Architecture - -YOLOv4 utilise plusieurs fonctionnalités innovantes qui travaillent ensemble pour optimiser ses performances. Celles-ci incluent les connexions résiduelles pondérées (WRC), les connexions partielles à travers les étapes (CSP), la normalisation mini-batch traversée (CmBN), l'entraînement auto-antagoniste (SAT), l'activation Mish, l'augmentation des données en mosaïque, la régularisation DropBlock et la perte CIoU. Ces fonctionnalités sont combinées pour obtenir des résultats de pointe. - -Un détecteur d'objets typique est composé de plusieurs parties, notamment l'entrée, le backbone, le neck et le head. Le backbone de YOLOv4 est pré-entraîné sur ImageNet et est utilisé pour prédire les classes et les boîtes englobantes des objets. Le backbone peut provenir de plusieurs modèles, notamment VGG, ResNet, ResNeXt ou DenseNet. La partie "neck" du détecteur est utilisée pour collecter des cartes de caractéristiques à partir de différentes étapes et comprend généralement plusieurs chemins "bottom-up" et plusieurs chemins "top-down". La partie "head" est ce qui est utilisé pour faire les détections et classifications finales des objets. - -## Ensemble de Bonus - -YOLOv4 utilise également des méthodes appelées "ensemble de bonus", qui sont des techniques permettant d'améliorer la précision du modèle lors de l'entraînement sans augmenter le coût de l'inférence. L'augmentation de données est une technique commune de l'ensemble de bonus utilisée dans la détection d'objets, qui augmente la variabilité des images d'entrée pour améliorer la robustesse du modèle. Quelques exemples d'augmentation de données incluent les distorsions photométriques (ajustement de la luminosité, du contraste, de la teinte, de la saturation et du bruit d'une image) et les distorsions géométriques (ajout d'échelle aléatoire, de recadrage, de retournement et de rotation). Ces techniques aident le modèle à mieux généraliser à différents types d'images. - -## Fonctionnalités et Performances - -YOLOv4 est conçu pour une vitesse et une précision optimales dans la détection d'objets. L'architecture de YOLOv4 comprend CSPDarknet53 en tant que backbone, PANet en tant que neck et YOLOv3 en tant que detection head. Ce design permet à YOLOv4 de réaliser une détection d'objets à une vitesse impressionnante, ce qui le rend adapté aux applications en temps réel. YOLOv4 excelle également en précision, atteignant des résultats de pointe dans les benchmarks de détection d'objets. - -## Exemples d'Utilisation - -Au moment de la rédaction de ce document, Ultralytics ne prend pas en charge les modèles YOLOv4. Par conséquent, les utilisateurs intéressés par l'utilisation de YOLOv4 devront consulter directement le référentiel GitHub de YOLOv4 pour les instructions d'installation et d'utilisation. - -Voici un bref aperçu des étapes typiques que vous pourriez suivre pour utiliser YOLOv4 : - -1. Rendez-vous sur le référentiel GitHub de YOLOv4 : [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). - -2. Suivez les instructions fournies dans le fichier README pour l'installation. Cela implique généralement de cloner le référentiel, d'installer les dépendances nécessaires et de configurer les variables d'environnement nécessaires. - -3. Une fois l'installation terminée, vous pouvez entraîner et utiliser le modèle selon les instructions d'utilisation fournies dans le référentiel. Cela implique généralement la préparation de votre ensemble de données, la configuration des paramètres du modèle, l'entraînement du modèle, puis l'utilisation du modèle entraîné pour effectuer la détection d'objets. - -Veuillez noter que les étapes spécifiques peuvent varier en fonction de votre cas d'utilisation spécifique et de l'état actuel du référentiel YOLOv4. Il est donc fortement recommandé de se référer directement aux instructions fournies dans le référentiel GitHub de YOLOv4. - -Nous regrettons tout inconvénient que cela pourrait causer et nous nous efforcerons de mettre à jour ce document avec des exemples d'utilisation pour Ultralytics une fois que le support de YOLOv4 sera implémenté. - -## Conclusion - -YOLOv4 est un modèle de détection d'objets puissant et efficace qui concilie vitesse et précision. Son utilisation de fonctionnalités uniques et de techniques "ensemble de bonus" lors de l'entraînement lui permet de réaliser d'excellentes performances dans les tâches de détection d'objets en temps réel. YOLOv4 peut être entraîné et utilisé par n'importe qui disposant d'un GPU conventionnel, le rendant accessible et pratique pour un large éventail d'applications. - -## Citations et Remerciements - -Nous tenons à remercier les auteurs de YOLOv4 pour leurs contributions importantes dans le domaine de la détection d'objets en temps réel : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -L'article original de YOLOv4 peut être consulté sur [arXiv](https://arxiv.org/abs/2004.10934). Les auteurs ont rendu leur travail accessible au public, et le code source peut être consulté sur [GitHub](https://github.com/AlexeyAB/darknet). Nous apprécions leurs efforts pour faire progresser le domaine et rendre leur travail accessible à la communauté élargie. diff --git a/docs/fr/models/yolov5.md b/docs/fr/models/yolov5.md deleted file mode 100644 index 83bdd04d800..00000000000 --- a/docs/fr/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: Découvrez YOLOv5u, une version améliorée du modèle YOLOv5 offrant un meilleur compromis entre précision et vitesse, ainsi que de nombreux modèles pré-entraînés pour diverses tâches de détection d'objets. -keywords: YOLOv5u, détection d'objets, modèles pré-entraînés, Ultralytics, inférence, validation, YOLOv5, YOLOv8, sans ancre, sans objectivité, applications temps réel, apprentissage automatique ---- - -# YOLOv5 - -## Présentation - -YOLOv5u représente une avancée dans les méthodologies de détection d'objets. Originaire de l'architecture fondamentale du modèle [YOLOv5](https://github.com/ultralytics/yolov5) développé par Ultralytics, YOLOv5u intègre la division sans ancre et sans objectivité, une fonctionnalité précédemment introduite dans les modèles [YOLOv8](yolov8.md). Cette adaptation affine l'architecture du modèle, ce qui conduit à un meilleur compromis entre précision et vitesse dans les tâches de détection d'objets. Compte tenu des résultats empiriques et des fonctionnalités dérivées, YOLOv5u offre une alternative efficace pour ceux qui recherchent des solutions robustes à la fois pour la recherche et les applications pratiques. - -![YOLOv5 Ultralytics](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## Principales fonctionnalités - -- **Division sans ancre Ultralytics :** Les modèles de détection d'objets traditionnels reposent sur des boîtes d'ancrage prédéfinies pour prédire les emplacements des objets. Cependant, YOLOv5u modernise cette approche. En adoptant une division sans ancre Ultralytics, il garantit un mécanisme de détection plus flexible et adaptatif, ce qui améliore les performances dans divers scénarios. - -- **Bon compromis entre précision et vitesse optimisée :** La vitesse et la précision sont souvent opposées. Mais YOLOv5u remet en question ce compromis. Il offre un équilibre calibré, garantissant des détections en temps réel sans compromettre la précision. Cette fonctionnalité est particulièrement précieuse pour les applications qui demandent des réponses rapides, comme les véhicules autonomes, la robotique et l'analyse vidéo en temps réel. - -- **Variété de modèles pré-entraînés :** Comprendre que différentes tâches nécessitent différents ensembles d'outils, YOLOv5u propose une pléthore de modèles pré-entraînés. Que vous vous concentriez sur l'inférence, la validation ou l'entraînement, un modèle sur mesure vous attend. Cette variété garantit que vous n'utilisez pas une solution universelle, mais un modèle spécifiquement ajusté à votre défi unique. - -## Tâches et modes pris en charge - -Les modèles YOLOv5u, avec divers poids pré-entraînés, excellent dans les tâches de [détection d'objets](../tasks/detect.md). Ils prennent en charge une gamme complète de modes, ce qui les rend adaptés à diverses applications, du développement au déploiement. - -| Type de modèle | Poids pré-entraînés | Tâche | Inférence | Validation | Entraînement | Export | -|----------------|-----------------------------------------------------------------------------------------------------------------------------|------------------------------------------|-----------|------------|--------------|--------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Ce tableau fournit un aperçu détaillé des variantes de modèles YOLOv5u, mettant en évidence leur applicabilité dans les tâches de détection d'objets et leur prise en charge de divers modes opérationnels tels que [Inférence](../modes/predict.md), [Validation](../modes/val.md), [Entraînement](../modes/train.md) et [Exportation](../modes/export.md). Cette prise en charge complète garantit que les utilisateurs peuvent exploiter pleinement les capacités des modèles YOLOv5u dans un large éventail de scénarios de détection d'objets. - -## Métriques de performance - -!!! Performance - - === "Détection" - - Consultez la [documentation sur la détection](https://docs.ultralytics.com/tasks/detect/) pour des exemples d'utilisation avec ces modèles formés sur [COCO](https://docs.ultralytics.com/datasets/detect/coco/), qui comprennent 80 classes pré-entraînées. - - | Modèle | YAML | taille
(pixels) | mAPval
50-95 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | params
(M) | FLOPs
(B) | - |-------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|-----------------------|----------------------|--------------------------------|-------------------------------------|--------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34,3 | 73,6 | 1,06 | 2,6 | 7,7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43,0 | 120,7 | 1,27 | 9,1 | 24,0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49,0 | 233,9 | 1,86 | 25,1 | 64,2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52,2 | 408,4 | 2,50 | 53,2 | 135,0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53,2 | 763,2 | 3,81 | 97,2 | 246,4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42,1 | 211,0 | 1,83 | 4,3 | 7,8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48,6 | 422,6 | 2,34 | 15,3 | 24,6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53,6 | 810,9 | 4,36 | 41,2 | 65,7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55,7 | 1470,9 | 5,47 | 86,1 | 137,4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56,8 | 2436,5 | 8,98 | 155,4 | 250,7 | - -## Exemples d'utilisation - -Cet exemple présente des exemples simples d'entraînement et d'inférence YOLOv5. Pour une documentation complète sur ces exemples et d'autres [modes](../modes/index.md), consultez les pages de documentation [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) et [Export](../modes/export.md). - -!!! Example "Exemple" - - === "Python" - - Les modèles PyTorch pré-entraînés `*.pt` ainsi que les fichiers de configuration `*.yaml` peuvent être passés à la classe `YOLO()` pour créer une instance de modèle en python : - - ```python - from ultralytics import YOLO - - # Charger un modèle YOLOv5n pré-entraîné sur COCO - model = YOLO('yolov5n.pt') - - # Afficher les informations sur le modèle (facultatif) - model.info() - - # Former le modèle sur l'ensemble de données d'exemple COCO8 pendant 100 époques - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Exécuter l'inférence avec le modèle YOLOv5n sur l'image 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Des commandes CLI sont disponibles pour exécuter directement les modèles : - - ```bash - # Charger un modèle YOLOv5n pré-entraîné sur COCO et l'entraîner sur l'ensemble de données d'exemple COCO8 pendant 100 époques - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Charger un modèle YOLOv5n pré-entraîné sur COCO et exécuter l'inférence sur l'image 'bus.jpg' - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## Citations et remerciements - -Si vous utilisez YOLOv5 ou YOLOv5u dans vos recherches, veuillez citer le référentiel Ultralytics YOLOv5 comme suit : - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -Veuillez noter que les modèles YOLOv5 sont fournis sous les licences [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) et [Enterprise](https://ultralytics.com/license). diff --git a/docs/fr/models/yolov6.md b/docs/fr/models/yolov6.md deleted file mode 100644 index 3d4cc36be13..00000000000 --- a/docs/fr/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: Explorez Meituan YOLOv6, un modèle de détection d'objets à la pointe de la technologie offrant un équilibre entre vitesse et précision. Plongez-vous dans les fonctionnalités, les modèles pré-entraînés et l'utilisation de Python. -keywords: Meituan YOLOv6, détection d'objets, Ultralytics, YOLOv6 docs, Bi-directional Concatenation, Anchor-Aided Training, modèles pré-entraînés, applications en temps réel ---- - -# Meituan YOLOv6 - -## Vue d'ensemble - -[Meituan](https://about.meituan.com/) YOLOv6 est un détecteur d'objets de pointe qui offre un équilibre remarquable entre vitesse et précision, ce qui en fait un choix populaire pour les applications en temps réel. Ce modèle introduit plusieurs améliorations remarquables sur son architecture et son schéma d'entraînement, notamment la mise en œuvre d'un module de concaténation bidirectionnelle (BiC), d'une stratégie d'entraînement assistée par ancrage (AAT) et d'une conception améliorée de l'épine dorsale et du cou pour une précision de pointe sur l'ensemble de données COCO. - -![Meituan YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![Exemple d'image du modèle](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**Aperçu de YOLOv6.** Diagramme de l'architecture du modèle montrant les composants du réseau redessinés et les stratégies d'entraînement qui ont conduit à d'importantes améliorations des performances. (a) L'épine dorsale de YOLOv6 (N et S sont indiqués). Notez que pour M/L, RepBlocks est remplacé par CSPStackRep. (b) La structure d'un module BiC. (c) Un bloc SimCSPSPPF. ([source](https://arxiv.org/pdf/2301.05586.pdf)). - -### Caractéristiques principales - -- **Module de concaténation bidirectionnelle (BiC) :** YOLOv6 introduit un module BiC dans le cou du détecteur, améliorant les signaux de localisation et offrant des gains de performance avec une dégradation de vitesse négligeable. -- **Stratégie d'entraînement assistée par ancrage (AAT) :** Ce modèle propose AAT pour profiter des avantages des paradigmes basés sur ancrage et sans ancrage sans compromettre l'efficacité de l'inférence. -- **Conception améliorée de l'épine dorsale et du cou :** En approfondissant YOLOv6 pour inclure une autre étape dans l'épine dorsale et le cou, ce modèle atteint des performances de pointe sur l'ensemble de données COCO avec une entrée haute résolution. -- **Stratégie d'autodistillation :** Une nouvelle stratégie d'autodistillation est mise en œuvre pour améliorer les performances des modèles plus petits de YOLOv6, en améliorant la branche de régression auxiliaire pendant l'entraînement et en la supprimant lors de l'inférence afin d'éviter une baisse notable de la vitesse. - -## Métriques de performance - -YOLOv6 propose différents modèles pré-entraînés avec différentes échelles : - -- YOLOv6-N : 37,5 % de précision sur COCO val2017 à 1187 FPS avec le GPU NVIDIA Tesla T4. -- YOLOv6-S : 45,0 % de précision à 484 FPS. -- YOLOv6-M : 50,0 % de précision à 226 FPS. -- YOLOv6-L : 52,8 % de précision à 116 FPS. -- YOLOv6-L6 : Précision de pointe en temps réel. - -YOLOv6 propose également des modèles quantifiés pour différentes précisions et des modèles optimisés pour les plates-formes mobiles. - -## Exemples d'utilisation - -Cet exemple fournit des exemples simples d'entraînement et d'inférence de YOLOv6. Pour une documentation complète sur ces exemples et d'autres [modes](../modes/index.md), consultez les pages de documentation [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) et [Export](../modes/export.md). - -!!! Example "Exemple" - - === "Python" - - Les modèles pré-entraînés PyTorch `*.pt`, ainsi que les fichiers de configuration `*.yaml`, peuvent être utilisés pour créer une instance de modèle en python en utilisant la classe `YOLO()` : - - ```python - from ultralytics import YOLO - - # Créer un modèle YOLOv6n à partir de zéro - model = YOLO('yolov6n.yaml') - - # Afficher les informations sur le modèle (facultatif) - model.info() - - # Entraîner le modèle sur l'ensemble de données d'exemple COCO8 pendant 100 epochs - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Effectuer une inférence avec le modèle YOLOv6n sur l'image 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Des commandes CLI sont disponibles pour exécuter directement les modèles : - - ```bash - # Créer un modèle YOLOv6n à partir de zéro et l'entraîner sur l'ensemble de données d'exemple COCO8 pendant 100 epochs - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # Créer un modèle YOLOv6n à partir de zéro et effectuer une inférence sur l'image 'bus.jpg' - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## Tâches et modes pris en charge - -La série YOLOv6 propose une gamme de modèles, chacun optimisé pour la [détection d'objets](../tasks/detect.md) haute performance. Ces modèles répondent à des besoins computationnels et des exigences de précision variables, ce qui les rend polyvalents pour une large gamme d'applications. - -| Type de modèle | Modèles pré-entraînés | Tâches prises en charge | Inférence | Validation | Entraînement | Export | -|----------------|-----------------------|------------------------------------------|-----------|------------|--------------|--------| -| YOLOv6-N | `yolov6-n.pt` | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [Détection d'objets](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Ce tableau fournit un aperçu détaillé des variantes du modèle YOLOv6, mettant en évidence leurs capacités dans les tâches de détection d'objets et leur compatibilité avec différents modes opérationnels tels que l'[Inférence](../modes/predict.md), la [Validation](../modes/val.md), l'[Entraînement](../modes/train.md) et l'[Export](../modes/export.md). Cette prise en charge complète permet aux utilisateurs de tirer pleinement parti des capacités des modèles YOLOv6 dans un large éventail de scénarios de détection d'objets. - -## Citations et remerciements - -Nous tenons à remercier les auteurs pour leur contribution importante dans le domaine de la détection d'objets en temps réel : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - - Le document original de YOLOv6 peut être consulté sur [arXiv](https://arxiv.org/abs/2301.05586). Les auteurs ont rendu leur travail accessible au public, et le code source peut être consulté sur [GitHub](https://github.com/meituan/YOLOv6). Nous apprécions leurs efforts pour faire avancer le domaine et rendre leur travail accessible à la communauté plus large. diff --git a/docs/fr/models/yolov7.md b/docs/fr/models/yolov7.md deleted file mode 100644 index b2ec7495e6b..00000000000 --- a/docs/fr/models/yolov7.md +++ /dev/null @@ -1,66 +0,0 @@ ---- -comments: true -description: Découvrez le YOLOv7, un détecteur d'objets en temps réel. Comprenez sa vitesse supérieure, son impressionnante précision et son accent unique sur l'optimisation bag-of-freebies entraînable. -keywords: YOLOv7, détecteur d'objets en temps réel, état de l'art, Ultralytics, jeu de données MS COCO, ré-paramétrisation du modèle, affectation des étiquettes dynamiques, mise à l'échelle étendue, mise à l'échelle composée ---- - -# YOLOv7 : Bag-of-Freebies Entraînable - -YOLOv7 est un détecteur d'objets en temps réel à la pointe de la technologie qui surpasse tous les détecteurs d'objets connus en termes de vitesse et de précision, dans une plage de 5 FPS à 160 FPS. Il présente la précision la plus élevée (56,8% AP) parmi tous les détecteurs d'objets en temps réel connus avec un FPS de 30 ou plus sur GPU V100. De plus, YOLOv7 surpasse les autres détecteurs d'objets tels que YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5 et bien d'autres en termes de vitesse et de précision. Le modèle est entraîné à partir de zéro sur le jeu de données MS COCO, sans utiliser d'autres jeux de données ou de poids pré-entraînés. Le code source de YOLOv7 est disponible sur GitHub. - -![Comparaison de YOLOv7 avec les détecteurs d'objets SOTA](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**Comparaison des détecteurs d'objets de pointe. -** À partir des résultats du Tableau 2, nous savons que la méthode proposée présente le meilleur compromis vitesse-précision dans l'ensemble. Si nous comparons YOLOv7-tiny-SiLU avec YOLOv5-N (r6.1), notre méthode est 127 FPS plus rapide et plus précise de 10,7% en AP. De plus, YOLOv7 atteint 51,4% d'AP à une fréquence d'images de 161 FPS, tandis que PPYOLOE-L avec la même AP atteint seulement 78 FPS. En termes d'utilisation des paramètres, YOLOv7 consomme 41% de moins que PPYOLOE-L. Si nous comparons YOLOv7-X avec une vitesse d'inférence de 114 FPS à YOLOv5-L (r6.1) avec une vitesse d'inférence de 99 FPS, YOLOv7-X peut améliorer l'AP de 3,9%. Si YOLOv7-X est comparé à YOLOv5-X (r6.1) de taille similaire, la vitesse d'inférence de YOLOv7-X est de 31 FPS plus rapide. De plus, en termes de nombre de paramètres et de calculs, YOLOv7-X réduit de 22% les paramètres et de 8% les calculs par rapport à YOLOv5-X (r6.1), mais améliore l'AP de 2,2% ([Source](https://arxiv.org/pdf/2207.02696.pdf)). - -## Aperçu - -La détection d'objets en temps réel est un composant important de nombreux systèmes de vision par ordinateur, notamment le suivi multi-objets, la conduite autonome, la robotique et l'analyse d'images médicales. Ces dernières années, le développement de la détection d'objets en temps réel s'est concentré sur la conception d'architectures efficaces et l'amélioration de la vitesse d'inférence des CPU, des GPU et des unités de traitement neuronal (NPU) dans différentes configurations. YOLOv7 prend en charge les GPU mobiles et les appareils GPU, de l'edge au cloud. - -Contrairement aux détecteurs d'objets en temps réel traditionnels qui se concentrent sur l'optimisation de l'architecture, YOLOv7 introduit une approche axée sur l'optimisation du processus d'entraînement. Cela comprend des modules et des méthodes d'optimisation conçus pour améliorer la précision de la détection d'objets sans augmenter le coût de l'inférence, un concept connu sous le nom de "bag-of-freebies entraînable". - -## Fonctionnalités Principales - -YOLOv7 propose plusieurs fonctionnalités principales : - -1. **Ré-paramétrisation du Modèle** : YOLOv7 propose un modèle re-paramétré planifié, qui est une stratégie applicable aux couches de différents réseaux avec le concept de propagation des gradients. - -2. **Affectation Dynamique des Étiquettes** : La formation du modèle avec des couches de sortie multiples présente un nouveau problème : "Comment attribuer des cibles dynamiques aux sorties des différentes branches ?" Pour résoudre ce problème, YOLOv7 introduit une nouvelle méthode d'affectation des étiquettes appelée affectation des étiquettes guidée en cascade de grossières à fines. - -3. **Mise à l'Échelle Étendue et Composée** : YOLOv7 propose des méthodes de "mise à l'échelle étendue" et de "mise à l'échelle composée" pour le détecteur d'objets en temps réel, qui permettent d'utiliser efficacement les paramètres et les calculs. - -4. **Efficacité** : La méthode proposée par YOLOv7 permet de réduire efficacement environ 40% des paramètres et 50% des calculs du détecteur d'objets en temps réel de pointe, tout en offrant une vitesse d'inférence plus rapide et une plus grande précision de détection. - -## Exemples d'Utilisation - -Au moment de la rédaction de cet article, Ultralytics ne prend pas en charge les modèles YOLOv7. Par conséquent, tout utilisateur intéressé par l'utilisation de YOLOv7 devra se référer directement au dépôt GitHub de YOLOv7 pour obtenir les instructions d'installation et d'utilisation. - -Voici un bref aperçu des étapes typiques que vous pourriez suivre pour utiliser YOLOv7 : - -1. Rendez-vous sur le dépôt GitHub de YOLOv7 : [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7). - -2. Suivez les instructions fournies dans le fichier README pour l'installation. Cela implique généralement de cloner le dépôt, d'installer les dépendances nécessaires et de configurer les variables d'environnement nécessaires. - -3. Une fois l'installation terminée, vous pouvez entraîner et utiliser le modèle selon les instructions d'utilisation fournies dans le dépôt. Cela implique généralement la préparation de votre ensemble de données, la configuration des paramètres du modèle, l'entraînement du modèle, puis l'utilisation du modèle entraîné pour effectuer la détection d'objets. - -Veuillez noter que les étapes spécifiques peuvent varier en fonction de votre cas d'utilisation spécifique et de l'état actuel du dépôt YOLOv7. Par conséquent, il est fortement recommandé de vous reporter directement aux instructions fournies dans le dépôt GitHub de YOLOv7. - -Nous nous excusons pour tout inconvénient que cela pourrait causer et nous nous efforcerons de mettre à jour ce document avec des exemples d'utilisation pour Ultralytics une fois la prise en charge de YOLOv7 mise en place. - -## Citations et Remerciements - -Nous tenons à remercier les auteurs de YOLOv7 pour leurs contributions significatives dans le domaine de la détection d'objets en temps réel : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -Le document original de YOLOv7 peut être consulté sur [arXiv](https://arxiv.org/pdf/2207.02696.pdf). Les auteurs ont rendu leur travail accessible au public, et le code source peut être consulté sur [GitHub](https://github.com/WongKinYiu/yolov7). Nous apprécions leurs efforts pour faire avancer le domaine et rendre leur travail accessible à la communauté élargie. diff --git a/docs/fr/models/yolov8.md b/docs/fr/models/yolov8.md deleted file mode 100644 index 14223788b74..00000000000 --- a/docs/fr/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: Explorez les fonctionnalités passionnantes de YOLOv8, la dernière version de notre détecteur d'objets en temps réel ! Découvrez comment les architectures avancées, les modèles pré-entraînés et un équilibre optimal entre précision et vitesse font de YOLOv8 le choix parfait pour vos tâches de détection d'objets. -keywords: YOLOv8, Ultralytics, détecteur d'objets en temps réel, modèles pré-entraînés, documentation, détection d'objets, série YOLO, architectures avancées, précision, vitesse ---- - -# YOLOv8 - -## Aperçu - -YOLOv8 est la dernière itération de la série YOLO de détecteurs d'objets en temps réel, offrant des performances de pointe en termes de précision et de vitesse. S'appuyant sur les avancées des versions précédentes de YOLO, YOLOv8 introduit de nouvelles fonctionnalités et optimisations qui en font un choix idéal pour diverses tâches de détection d'objets dans une large gamme d'applications. - -![Ultralytics YOLOv8](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## Principales fonctionnalités - -- **Architectures avancées pour le tronc et le cou:** YOLOv8 utilise des architectures de tronc et de cou de pointe, ce qui permet une meilleure extraction des caractéristiques et des performances de détection d'objets améliorées. -- **Tête Ultralytics sans ancre:** YOLOv8 adopte une tête Ultralytics sans ancre, ce qui contribue à une meilleure précision et à un processus de détection plus efficace par rapport aux approches basées sur les ancres. -- **Équilibre optimal entre précision et vitesse optimisé:** En mettant l'accent sur le maintien d'un équilibre optimal entre précision et vitesse, YOLOv8 convient aux tâches de détection d'objets en temps réel dans divers domaines d'application. -- **Variété de modèles pré-entraînés:** YOLOv8 propose une gamme de modèles pré-entraînés pour répondre à différentes tâches et exigences de performance, ce qui facilite la recherche du modèle adapté à votre cas d'utilisation spécifique. - -## Tâches et modes pris en charge - -La série YOLOv8 propose une gamme diversifiée de modèles, chacun spécialisé dans des tâches spécifiques en vision par ordinateur. Ces modèles sont conçus pour répondre à diverses exigences, de la détection d'objets à des tâches plus complexes telles que la segmentation d'instance, la détection de pose/points clés et la classification. - -Chaque variante de la série YOLOv8 est optimisée pour sa tâche respective, garantissant des performances et une précision élevées. De plus, ces modèles sont compatibles avec divers modes opérationnels, notamment l'[Inférence](../modes/predict.md), la [Validation](../modes/val.md), l'[Entraînement](../modes/train.md) et l'[Exportation](../modes/export.md), ce qui facilite leur utilisation à différentes étapes du déploiement et du développement. - -| Modèle | Noms de fichiers | Tâche | Inférence | Validation | Entraînement | Exportation | -|-------------|----------------------------------------------------------------------------------------------------------------|------------------------------------------------|-----------|------------|--------------|-------------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [Détection](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [Segmentation d'instance](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [Pose/Points clés](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [Classification](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -Ce tableau donne un aperçu des variantes des modèles YOLOv8, mettant en évidence leur applicabilité dans des tâches spécifiques et leur compatibilité avec différents modes opérationnels tels que l'inférence, la validation, l'entraînement et l'exportation. Il met en avant la polyvalence et la robustesse de la série YOLOv8, ce qui les rend adaptés à une variété d'applications en vision par ordinateur. - -## Métriques de performance - -!!! Performance - - === "Détection (COCO)" - - Consultez la [doc de détection](https://docs.ultralytics.com/tasks/detect/) pour des exemples d'utilisation avec ces modèles entraînés sur [COCO](https://docs.ultralytics.com/datasets/detect/coco/), qui comprennent 80 classes pré-entrainées. - - | Modèle | taille
(pixels) | mAPval
50-95 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | paramètres
(M) | FLOPs
(B) | - | ------------------------------------------------------------------------------------ | --------------------- | -------------------- | ------------------------------- | ------------------------------------ | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37,3 | 80,4 | 0,99 | 3,2 | 8,7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44,9 | 128,4 | 1,20 | 11,2 | 28,6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50,2 | 234,7 | 1,83 | 25,9 | 78,9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52,9 | 375,2 | 2,39 | 43,7 | 165,2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53,9 | 479,1 | 3,53 | 68,2 | 257,8 | - - === "Détection (Open Images V7)" - - Consultez la [doc de détection](https://docs.ultralytics.com/tasks/detect/) pour des exemples d'utilisation avec ces modèles entraînés sur [Open Image V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/), qui comprennent 600 classes pré-entrainées. - - | Modèle | taille
(pixels) | mAPval
50-95 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | paramètres
(M) | FLOPs
(B) | - | ----------------------------------------------------------------------------------------- | --------------------- | -------------------- | ------------------------------- | ------------------------------------ | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18,4 | 142,4 | 1,21 | 3,5 | 10,5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27,7 | 183,1 | 1,40 | 11,4 | 29,7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33,6 | 408,5 | 2,26 | 26,2 | 80,6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34,9 | 596,9 | 2,43 | 44,1 | 167,4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36,3 | 860,6 | 3,56 | 68,7 | 260,6 | - - === "Segmentation (COCO)" - - Consultez la [doc de segmentation](https://docs.ultralytics.com/tasks/segment/) pour des exemples d'utilisation avec ces modèles entraînés sur [COCO](https://docs.ultralytics.com/datasets/segment/coco/), qui comprennent 80 classes pré-entrainées. - - | Modèle | taille
(pixels) | mAPbox
50-95 | mAPmask
50-95 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | paramètres
(M) | FLOPs
(B) | - | -------------------------------------------------------------------------------------------- | --------------------- | -------------------- | --------------------- | ------------------------------- | ------------------------------------ | ------------------ | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36,7 | 30,5 | 96,1 | 1,21 | 3,4 | 12,6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44,6 | 36,8 | 155,7 | 1,47 | 11,8 | 42,6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49,9 | 40,8 | 317,0 | 2,18 | 27,3 | 110,2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52,3 | 42,6 | 572,4 | 2,79 | 46,0 | 220,5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53,4 | 43,4 | 712,1 | 4,02 | 71,8 | 344,1 | - - === "Classification (ImageNet)" - - Consultez la [doc de classification](https://docs.ultralytics.com/tasks/classify/) pour des exemples d'utilisation avec ces modèles entraînés sur [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/), qui comprennent 1000 classes pré-entrainées. - - | Modèle | taille
(pixels) | acc
top1 | acc
top5 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | paramètres
(M) | FLOPs
(B) at 640 | - | -------------------------------------------------------------------------------------------- | --------------------- | ---------------- | ---------------- | ------------------------------- | ------------------------------------ | ------------------ | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66,6 | 87,0 | 12,9 | 0,31 | 2,7 | 4,3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72,3 | 91,1 | 23,4 | 0,35 | 6,4 | 13,5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76,4 | 93,2 | 85,4 | 0,62 | 17,0 | 42,7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78,0 | 94,1 | 163,0 | 0,87 | 37,5 | 99,7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78,4 | 94,3 | 232,0 | 1,01 | 57,4 | 154,8 | - - === "Pose (COCO)" - - Consultez la [doc d'estimation de pose](https://docs.ultralytics.com/tasks/segment/) pour des exemples d'utilisation avec ces modèles entraînés sur [COCO](https://docs.ultralytics.com/datasets/pose/coco/), qui comprennent 1 classe pré-entrainée, 'person'. - - | Modèle | taille
(pixels) | mAPpose
50-95 | mAPpose
50 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | paramètres
(M) | FLOPs
(B) | - | ---------------------------------------------------------------------------------------------------- | --------------------- | --------------------- | ------------------ | ------------------------------- | ------------------------------------ | ------------------ | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50,4 | 80,1 | 131,8 | 1,18 | 3,3 | 9,2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60,0 | 86,2 | 233,2 | 1,42 | 11,6 | 30,2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65,0 | 88,8 | 456,3 | 2,00 | 26,4 | 81,0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67,6 | 90,0 | 784,5 | 2,59 | 44,4 | 168,6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69,2 | 90,2 | 1607,1 | 3,73 | 69,4 | 263,2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71,6 | 91,2 | 4088,7 | 10,04 | 99,1 | 1066,4 | - -## Exemples d'utilisation - -Cet exemple fournit des exemples simples d'entraînement et d'inférence avec YOLOv8. Pour une documentation complète sur ces exemples et d'autres [modes](../modes/index.md), consultez les pages de documentation [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) et [Export](../modes/export.md). - -Veuillez noter que l'exemple ci-dessous concerne les modèles de détection YOLOv8. Pour d'autres tâches prises en charge, consultez la documentation de [Segmentation](../tasks/segment.md), [Classification](../tasks/classify.md) et [Pose/Points clés](../tasks/pose.md). - -!!! Example "Exemple" - - === "Python" - - Les modèles pré-entraînés PyTorch `*.pt` ainsi que les fichiers de configuration `*.yaml` peuvent être utilisés pour créer une instance de modèle en python en passant aux classes `YOLO()` : - - ```python - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné sur COCO - model = YOLO('yolov8n.pt') - - # Afficher les informations du modèle (facultatif) - model.info() - - # Entraîner le modèle sur l'exemple de jeu de données COCO8 pendant 100 époques - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Effectuer une inférence avec le modèle YOLOv8n sur l'image 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Des commandes CLI sont disponibles pour exécuter directement les modèles : - - ```bash - # Charger un modèle YOLOv8n pré-entraîné sur COCO et l'entraîner sur l'exemple de jeu de données COCO8 pendant 100 époques - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Charger un modèle YOLOv8n pré-entraîné sur COCO et effectuer une inférence sur l'image 'bus.jpg' - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## Citations et remerciements - -Si vous utilisez le modèle YOLOv8 ou tout autre logiciel de ce référentiel dans votre travail, veuillez le citer selon le format suivant : - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -Veuillez noter que le DOI est en attente et sera ajouté à la citation dès qu'il sera disponible. Les modèles YOLOv8 sont fournis sous licence [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) et [Enterprise](https://ultralytics.com/license). diff --git a/docs/fr/modes/benchmark.md b/docs/fr/modes/benchmark.md deleted file mode 100644 index 5708aa40b29..00000000000 --- a/docs/fr/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: Apprenez comment profiler la vitesse et l'exactitude de YOLOv8 à travers divers formats d'exportation ; obtenez des insights sur les métriques mAP50-95, accuracy_top5 et plus. -keywords: Ultralytics, YOLOv8, benchmarking, profilage de vitesse, profilage de précision, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, formats d'exportation YOLO ---- - -# Benchmarking de Modèles avec Ultralytics YOLO - -Écosystème Ultralytics YOLO et intégrations - -## Introduction - -Une fois votre modèle entraîné et validé, l'étape logique suivante est d'évaluer ses performances dans divers scénarios du monde réel. Le mode benchmark dans Ultralytics YOLOv8 répond à cet objectif en fournissant un cadre robuste pour évaluer la vitesse et l'exactitude de votre modèle sur une gamme de formats d'exportation. - -## Pourquoi le Benchmarking est-il Crucial ? - -- **Décisions Éclairées :** Obtenez des insights sur les arbitrages entre la vitesse et l'exactitude. -- **Allocation des Ressources :** Comprenez comment les différents formats d'exportation se comportent sur différents matériels. -- **Optimisation :** Découvrez quel format d'exportation offre la meilleure performance pour votre cas d'utilisation spécifique. -- **Efficacité des Coûts :** Utilisez les ressources matérielles plus efficacement en vous basant sur les résultats des benchmarks. - -### Mesures Clés en Mode Benchmark - -- **mAP50-95 :** Pour la détection d'objets, la segmentation et l'estimation de pose. -- **accuracy_top5 :** Pour la classification d'images. -- **Temps d'Inférence :** Temps pris pour chaque image en millisecondes. - -### Formats d'Exportation Supportés - -- **ONNX :** Pour une performance optimale sur CPU. -- **TensorRT :** Pour une efficacité maximale sur GPU. -- **OpenVINO :** Pour l'optimisation du matériel Intel. -- **CoreML, TensorFlow SavedModel, et Plus :** Pour des besoins variés de déploiement. - -!!! astuce "Conseil" - - * Exportez vers ONNX ou OpenVINO pour un gain de vitesse CPU jusqu'à 3x. - * Exportez vers TensorRT pour un gain de vitesse GPU jusqu'à 5x. - -## Exemples d'Utilisation - -Exécutez les benchmarks YOLOv8n sur tous les formats d'exportation supportés, y compris ONNX, TensorRT, etc. Consultez la section Arguments ci-dessous pour une liste complète des arguments d'exportation. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # Benchmark sur GPU - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## Arguments - -Des arguments tels que `model`, `data`, `imgsz`, `half`, `device` et `verbose` offrent aux utilisateurs la flexibilité d'ajuster précisément les benchmarks à leurs besoins spécifiques et de comparer facilement les performances de différents formats d'exportation. - -| Clé | Valeur | Description | -|-----------|---------|---------------------------------------------------------------------------------------| -| `model` | `None` | chemin vers le fichier modèle, par ex. yolov8n.pt, yolov8n.yaml | -| `data` | `None` | chemin vers le YAML référençant le dataset de benchmarking (sous l'étiquette `val`) | -| `imgsz` | `640` | taille de l'image comme scalaire ou liste (h, w), par ex. (640, 480) | -| `half` | `False` | quantification FP16 | -| `int8` | `False` | quantification INT8 | -| `device` | `None` | appareil sur lequel exécuter, par ex. appareil cuda=0 ou device=0,1,2,3 ou device=cpu | -| `verbose` | `False` | ne pas continuer en cas d'erreur (bool), ou seuil de plancher val (float) | - -## Formats d'Exportation - -Les benchmarks tenteront de s'exécuter automatiquement sur tous les formats d'exportation possibles ci-dessous. - -| Format | Argument `format` | Modèle | Métadonnées | Arguments | -|--------------------------------------------------------------------|-------------------|---------------------------|-------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Consultez les détails complets sur `export` dans la page [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/fr/modes/export.md b/docs/fr/modes/export.md deleted file mode 100644 index e37d6e932e3..00000000000 --- a/docs/fr/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: Guide étape par étape sur l'exportation de vos modèles YOLOv8 vers divers formats tels que ONNX, TensorRT, CoreML et plus encore pour le déploiement. Explorez maintenant !. -keywords: YOLO, YOLOv8, Ultralytics, Exportation de modèle, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, exporter un modèle ---- - -# Exportation de modèle avec Ultralytics YOLO - -Écosystème et intégrations Ultralytics YOLO - -## Introduction - -L'objectif ultime de l'entraînement d'un modèle est de le déployer pour des applications dans le monde réel. Le mode d'exportation de Ultralytics YOLOv8 offre une large gamme d'options pour exporter votre modèle entraîné dans différents formats, le rendant déployable sur diverses plateformes et appareils. Ce guide complet vise à vous guider à travers les nuances de l'exportation de modèles, en montrant comment atteindre une compatibilité et des performances maximales. - -

-
- -
- Regardez : Comment exporter un modèle Ultralytics YOLOv8 entraîné personnalisé et effectuer une inférence en direct sur webcam. -

- -## Pourquoi choisir le mode d'exportation YOLOv8 ? - -- **Polyvalence :** Exportation vers plusieurs formats, y compris ONNX, TensorRT, CoreML et plus encore. -- **Performance :** Gagnez jusqu'à 5 fois la vitesse d'une GPU avec TensorRT et 3 fois la vitesse d'une CPU avec ONNX ou OpenVINO. -- **Compatibilité :** Rendez votre modèle universellement déployable sur de nombreux environnements matériels et logiciels. -- **Facilité d'utilisation :** Interface en ligne de commande (CLI) et API Python simples pour une exportation rapide et directe du modèle. - -### Caractéristiques clés du mode d'exportation - -Voici quelques-unes des fonctionnalités remarquables : - -- **Exportation en un clic :** Commandes simples pour exporter vers différents formats. -- **Exportation groupée :** Exportez des modèles capables d'inférence par lot. -- **Inférence optimisée :** Les modèles exportés sont optimisés pour des temps d'inférence plus rapides. -- **Vidéos tutorielles :** Guides détaillés et tutoriels pour une expérience d'exportation fluide. - -!!! astuce "Conseil" - - * Exportez vers ONNX ou OpenVINO pour une accélération de la CPU jusqu'à 3 fois. - * Exportez vers TensorRT pour une accélération de la GPU jusqu'à 5 fois. - -## Exemples d'utilisation - -Exportez un modèle YOLOv8n vers un format différent tel que ONNX ou TensorRT. Voir la section Arguments ci-dessous pour une liste complète des arguments d'exportation. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # chargez un modèle officiel - model = YOLO('path/to/best.pt') # chargez un modèle entraîné personnalisé - - # Exporter le modèle - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # exporter modèle officiel - yolo export model=path/to/best.pt format=onnx # exporter modèle entraîné personnalisé - ``` - -## Arguments - -Les paramètres d'exportation pour les modèles YOLO se réfèrent aux diverses configurations et options utilisées pour sauvegarder ou exporter le modèle pour utilisation dans d'autres environnements ou plateformes. Ces paramètres peuvent affecter la performance, la taille et la compatibilité du modèle avec différents systèmes. Certains paramètres d'exportation YOLO courants incluent le format du fichier modèle exporté (par exemple, ONNX, TensorFlow SavedModel), le dispositif sur lequel le modèle sera exécuté (par exemple, CPU, GPU), et la présence de fonctionnalités supplémentaires telles que des masques ou des étiquettes multiples par boîte. D'autres facteurs qui peuvent affecter le processus d'exportation incluent la tâche spécifique pour laquelle le modèle est utilisé et les exigences ou contraintes de l'environnement ou de la plateforme cible. Il est important de considérer et de configurer ces paramètres avec soin pour s'assurer que le modèle exporté est optimisé pour le cas d'utilisation visé et peut être utilisé efficacement dans l'environnement cible. - -| Clé | Valeur | Description | -|-------------|-----------------|----------------------------------------------------------------------------------| -| `format` | `'torchscript'` | format vers lequel exporter | -| `imgsz` | `640` | taille d'image sous forme scalaire ou liste (h, w), par ex. (640, 480) | -| `keras` | `False` | utilisez Keras pour l'exportation TensorFlow SavedModel | -| `optimize` | `False` | TorchScript : optimisation pour mobile | -| `half` | `False` | quantification FP16 | -| `int8` | `False` | quantification INT8 | -| `dynamic` | `False` | ONNX/TensorRT : axes dynamiques | -| `simplify` | `False` | ONNX/TensorRT : simplifier le modèle | -| `opset` | `None` | ONNX : version de l'ensemble d'opérations (facultatif, par défaut à la dernière) | -| `workspace` | `4` | TensorRT : taille de l'espace de travail (GB) | -| `nms` | `False` | CoreML : ajout de la NMS | - -## Formats d'exportation - -Les formats d'exportation disponibles pour YOLOv8 sont dans le tableau ci-dessous. Vous pouvez exporter vers n'importe quel format en utilisant l'argument `format`, par ex. `format='onnx'` ou `format='engine'`. - -| Format | Argument `format` | Modèle | Métadonnées | Arguments | -|--------------------------------------------------------------------|-------------------|---------------------------|-------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/fr/modes/index.md b/docs/fr/modes/index.md deleted file mode 100644 index 9975e0437fe..00000000000 --- a/docs/fr/modes/index.md +++ /dev/null @@ -1,73 +0,0 @@ ---- -comments: true -description: De l'entraînement au suivi, exploitez au mieux YOLOv8 d'Ultralytics. Obtenez des aperçus et des exemples pour chaque mode pris en charge, y compris la validation, l'exportation et le benchmarking. -keywords: Ultralytics, YOLOv8, Machine Learning, Détection d'objets, Entraînement, Validation, Prédiction, Exportation, Suivi, Benchmarking ---- - -# Modes Ultralytics YOLOv8 - -Écosystème Ultralytics YOLO et intégrations - -## Introduction - -Ultralytics YOLOv8 n'est pas simplement un autre modèle de détection d'objets ; c'est un cadre polyvalent conçu pour couvrir l'intégralité du cycle de vie des modèles d'apprentissage automatique — de l'ingestion de données et l'entraînement des modèles à la validation, le déploiement et le suivi en conditions réelles. Chaque mode remplit un objectif spécifique et est conçu pour vous offrir la flexibilité et l'efficacité nécessaires pour différentes tâches et cas d'utilisation. - -

-
- -
- Regardez : Tutoriel sur les modes Ultralytics : Entraînement, Validation, Prédiction, Exportation & Benchmark. -

- -### Aperçu des Modes - -Comprendre les différents **modes** pris en charge par Ultralytics YOLOv8 est crucial pour tirer le maximum de vos modèles : - -- **Mode d'entraînement (Train)** : Affinez votre modèle sur des jeux de données personnalisés ou préchargés. -- **Mode de validation (Val)** : Un contrôle post-entraînement pour évaluer la performance du modèle. -- **Mode de prédiction (Predict)** : Déployez la puissance prédictive de votre modèle sur des données du monde réel. -- **Mode d'exportation (Export)** : Préparez votre modèle au déploiement dans différents formats. -- **Mode de suivi (Track)** : Étendez votre modèle de détection d'objets à des applications de suivi en temps réel. -- **Mode benchmark (Benchmark)** : Analysez la vitesse et la précision de votre modèle dans divers environnements de déploiement. - -Ce guide complet vise à vous donner un aperçu et des informations pratiques sur chaque mode, en vous aidant à exploiter tout le potentiel de YOLOv8. - -## [Entraînement (Train)](train.md) - -Le mode d'entraînement est utilisé pour entraîner un modèle YOLOv8 sur un jeu de données personnalisé. Dans ce mode, le modèle est entraîné en utilisant le jeu de données et les hyperparamètres spécifiés. Le processus d'entraînement implique l'optimisation des paramètres du modèle afin qu'il puisse prédire avec précision les classes et les emplacements des objets dans une image. - -[Exemples d'entraînement](train.md){ .md-button } - -## [Validation (Val)](val.md) - -Le mode de validation est utilisé pour valider un modèle YOLOv8 après qu'il ait été entraîné. Dans ce mode, le modèle est évalué sur un ensemble de validation pour mesurer sa précision et sa capacité de généralisation. Ce mode peut être utilisé pour ajuster les hyperparamètres du modèle afin d'améliorer ses performances. - -[Exemples de validation](val.md){ .md-button } - -## [Prédiction (Predict)](predict.md) - -Le mode de prédiction est utilisé pour faire des prédictions à l'aide d'un modèle YOLOv8 entraîné sur de nouvelles images ou vidéos. Dans ce mode, le modèle est chargé à partir d'un fichier de checkpoint, et l'utilisateur peut fournir des images ou vidéos pour effectuer l'inférence. Le modèle prédit les classes et les emplacements des objets dans les images ou vidéos fournies. - -[Exemples de prédiction](predict.md){ .md-button } - -## [Exportation (Export)](export.md) - -Le mode d'exportation est utilisé pour exporter un modèle YOLOv8 dans un format pouvant être utilisé pour le déploiement. Dans ce mode, le modèle est converti dans un format pouvant être utilisé par d'autres applications logicielles ou dispositifs matériels. Ce mode est pratique pour déployer le modèle dans des environnements de production. - -[Exemples d'exportation](export.md){ .md-button } - -## [Suivi (Track)](track.md) - -Le mode de suivi est utilisé pour suivre des objets en temps réel à l'aide d'un modèle YOLOv8. Dans ce mode, le modèle est chargé à partir d'un fichier de checkpoint, et l'utilisateur peut fournir un flux vidéo en direct pour effectuer le suivi d'objets en temps réel. Ce mode est utile pour des applications telles que les systèmes de surveillance ou les voitures autonomes. - -[Exemples de suivi](track.md){ .md-button } - -## [Benchmark (Benchmark)](benchmark.md) - -Le mode benchmark est utilisé pour profiler la vitesse et la précision de divers formats d'exportation pour YOLOv8. Les benchmarks fournissent des informations sur la taille du format exporté, ses métriques `mAP50-95` (pour la détection d'objets, la segmentation et la pose) ou `accuracy_top5` (pour la classification), et le temps d'inférence en millisecondes par image pour différents formats d'exportation comme ONNX, OpenVINO, TensorRT et autres. Ces informations peuvent aider les utilisateurs à choisir le format d'export optimal pour leur cas d'utilisation spécifique en fonction de leurs exigences de vitesse et de précision. - -[Exemples de benchmark](benchmark.md){ .md-button } diff --git a/docs/fr/modes/predict.md b/docs/fr/modes/predict.md deleted file mode 100644 index 1a4a8f6e5fa..00000000000 --- a/docs/fr/modes/predict.md +++ /dev/null @@ -1,227 +0,0 @@ ---- -comments: true -description: Découvrez comment utiliser le mode de prédiction YOLOv8 pour diverses tâches. Apprenez sur différentes sources d'inférence comme des images, vidéos et formats de données. -keywords: Ultralytics, YOLOv8, mode de prédiction, sources d'inférence, tâches de prédiction, mode streaming, traitement d'images, traitement vidéo, apprentissage automatique, IA ---- - -# Prédiction de Modèle avec Ultralytics YOLO - -Écosystème et intégrations Ultralytics YOLO - -## Introduction - -Dans l'univers de l'apprentissage automatique et de la vision par ordinateur, le processus de donner du sens aux données visuelles est appelé 'inférence' ou 'prédiction'. Ultralytics YOLOv8 propose une fonctionnalité puissante connue sous le nom de **mode de prédiction** adapté pour l'inférence en temps réel et haute performance sur une large gamme de sources de données. - -

-
- -
- Regardez : Comment Extraire les Sorties du Modèle Ultralytics YOLOv8 pour des Projets Personnalisés. -

- -## Applications Réelles - -| Fabrication | Sports | Sécurité | -|:---------------------------------------------------------------------------------------------------------------------------------------:|:---------------------------------------------------------------------------------------------------------------------------------------:|:--------------------------------------------------------------------------------------------------------------------------------------:| -| ![Détection des Pièces de Véhicules](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1) | ![Détection des Joueurs de Football](https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442) | ![Détection de Chutes de Personnes](https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43) | -| Détection des Pièces de Véhicules | Détection des Joueurs de Football | Détection de Chutes de Personnes | - -## Pourquoi Utiliser Ultralytics YOLO pour l'Inférence ? - -Voici pourquoi vous devriez considérer le mode de prédiction YOLOv8 pour vos besoins variés en inférence : - -- **Polyvalence :** Capable de faire des inférences sur des images, des vidéos et même des flux en direct. -- **Performance :** Conçu pour le traitement en temps réel à grande vitesse sans sacrifier la précision. -- **Facilité d'Utilisation :** Interfaces Python et CLI intuitives pour un déploiement et des tests rapides. -- **Très Personnalisable :** Divers paramètres et réglages pour ajuster le comportement d'inférence du modèle selon vos besoins spécifiques. - -### Caractéristiques Clés du Mode de Prédiction - -Le mode de prédiction YOLOv8 est conçu pour être robuste et polyvalent, avec des fonctionnalités telles que : - -- **Compatibilité avec Plusieurs Sources de Données :** Que vos données soient sous forme d'images individuelles, d'une collection d'images, de fichiers vidéo ou de flux vidéo en temps réel, le mode de prédiction répond à vos besoins. -- **Mode Streaming :** Utilisez la fonctionnalité de streaming pour générer un générateur efficace en termes de mémoire d'objets `Results`. Activez-le en réglant `stream=True` dans la méthode d'appel du prédicteur. -- **Traitement par Lots :** La capacité de traiter plusieurs images ou trames vidéo dans un seul lot, accélérant ainsi le temps d'inférence. -- **Facile à Intégrer :** S'intègre facilement dans les pipelines de données existants et autres composants logiciels, grâce à son API souple. - -Les modèles YOLO d'Ultralytics renvoient soit une liste d'objets `Results` Python, soit un générateur Python efficace en termes de mémoire d'objets `Results` lorsque `stream=True` est passé au modèle pendant l'inférence : - -!!! Example "Prédire" - - === "Renvoie une liste avec `stream=False`" - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # modèle YOLOv8n pré-entraîné - - # Exécuter une inférence par lots sur une liste d'images - results = model(['im1.jpg', 'im2.jpg']) # renvoie une liste d'objets Results - - # Traiter la liste des résultats - for result in results: - boxes = result.boxes # Objet Boxes pour les sorties bbox - masks = result.masks # Objet Masks pour les masques de segmentation - keypoints = result.keypoints # Objet Keypoints pour les sorties de pose - probs = result.probs # Objet Probs pour les sorties de classification - ``` - - === "Renvoie un générateur avec `stream=True`" - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # modèle YOLOv8n pré-entraîné - - # Exécuter une inférence par lots sur une liste d'images - results = model(['im1.jpg', 'im2.jpg'], stream=True) # renvoie un générateur d'objets Results - - # Traiter le générateur de résultats - for result in results: - boxes = result.boxes # Objet Boxes pour les sorties bbox - masks = result.masks # Objet Masks pour les masques de segmentation - keypoints = result.keypoints # Objet Keypoints pour les sorties de pose - probs = result.probs # Objet Probs pour les sorties de classification - ``` - -## Sources d'Inférence - -YOLOv8 peut traiter différents types de sources d'entrée pour l'inférence, comme illustré dans le tableau ci-dessous. Les sources incluent des images statiques, des flux vidéos et divers formats de données. Le tableau indique également si chaque source peut être utilisée en mode streaming avec l'argument `stream=True` ✅. Le mode streaming est bénéfique pour traiter des vidéos ou des flux en direct car il crée un générateur de résultats au lieu de charger tous les cadres en mémoire. - -!!! astuce "Astuce" - - Utilisez `stream=True` pour traiter des vidéos longues ou des jeux de données volumineux afin de gérer efficacement la mémoire. Quand `stream=False`, les résultats pour tous les cadres ou points de données sont stockés en mémoire, ce qui peut rapidement s'accumuler et provoquer des erreurs de mémoire insuffisante pour de grandes entrées. En revanche, `stream=True` utilise un générateur, qui ne garde que les résultats du cadre ou point de données actuel en mémoire, réduisant considérablement la consommation de mémoire et prévenant les problèmes de mémoire insuffisante. - -| Source | Argument | Type | Notes | -|-----------------|--------------------------------------------|-----------------|------------------------------------------------------------------------------------------------------------------------------| -| image | `'image.jpg'` | `str` ou `Path` | Fichier image unique. | -| URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | URL vers une image. | -| capture d'écran | `'screen'` | `str` | Prendre une capture d'écran. | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | Format HWC avec canaux RGB. | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | Format HWC avec canaux BGR `uint8 (0-255)`. | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | Format HWC avec canaux BGR `uint8 (0-255)`. | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | Format BCHW avec canaux RGB `float32 (0.0-1.0)`. | -| CSV | `'sources.csv'` | `str` ou `Path` | Fichier CSV contenant des chemins vers des images, vidéos ou répertoires. | -| vidéo ✅ | `'video.mp4'` | `str` ou `Path` | Fichier vidéo dans des formats comme MP4, AVI, etc. | -| répertoire ✅ | `'chemin/'` | `str` ou `Path` | Chemin vers un répertoire contenant des images ou des vidéos. | -| motif global ✅ | `'chemin/*.jpg'` | `str` | Motif glob pour faire correspondre plusieurs fichiers. Utilisez le caractère `*` comme joker. | -| YouTube ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | URL vers une vidéo YouTube. | -| flux ✅ | `'rtsp://exemple.com/media.mp4'` | `str` | URL pour des protocoles de streaming comme RTSP, RTMP, TCP, ou une adresse IP. | -| multi-flux ✅ | `'liste.streams'` | `str` ou `Path` | Fichier texte `*.streams` avec une URL de flux par ligne, c'est-à-dire que 8 flux s'exécuteront avec une taille de lot de 8. | - -Ci-dessous des exemples de code pour utiliser chaque type de source : - -!!! Example "Sources de prédiction" - - === "image" - Exécutez une inférence sur un fichier image. - ```python - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné - model = YOLO('yolov8n.pt') - - # Définir le chemin vers le fichier image - source = 'chemin/vers/image.jpg' - - # Exécuter une inférence sur la source - results = model(source) # liste d'objets Results - ``` - - === "capture d'écran" - Exécutez une inférence sur le contenu actuel de l'écran sous forme de capture d'écran. - ```python - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné - model = YOLO('yolov8n.pt') - - # Définir la capture d'écran actuelle comme source - source = 'screen' - - # Exécuter une inférence sur la source - results = model(source) # liste d'objets Results - ``` - - === "URL" - Exécutez une inférence sur une image ou vidéo hébergée à distance via URL. - ```python - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné - model = YOLO('yolov8n.pt') - - # Définir l'URL d'une image ou vidéo distante - source = 'https://ultralytics.com/images/bus.jpg' - - # Exécuter une inférence sur la source - results = model(source) # liste d'objets Results - ``` - - === "PIL" - Exécutez une inférence sur une image ouverte avec la bibliothèque Python Imaging Library (PIL). - ```python - from PIL import Image - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné - model = YOLO('yolov8n.pt') - - # Ouvrir une image avec PIL - source = Image.open('chemin/vers/image.jpg') - - # Exécuter une inférence sur la source - results = model(source) # liste d'objets Results - ``` - - === "OpenCV" - Exécutez une inférence sur une image lue avec OpenCV. - ```python - import cv2 - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné - model = YOLO('yolov8n.pt') - - # Lire une image avec OpenCV - source = cv2.imread('chemin/vers/image.jpg') - - # Exécuter une inférence sur la source - results = model(source) # liste d'objets Results - ``` - - === "numpy" - Exécutez une inférence sur une image représentée sous forme de tableau numpy. - ```python - import numpy as np - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné - model = YOLO('yolov8n.pt') - - # Créer un tableau numpy aléatoire de forme HWC (640, 640, 3) avec des valeurs dans l'intervalle [0, 255] et de type uint8 - source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') - - # Exécuter une inférence sur la source - results = model(source) # liste d'objets Results - ``` - - === "torch" - Exécutez une inférence sur une image représentée sous forme de tenseur PyTorch. - ```python - import torch - from ultralytics import YOLO - - # Charger un modèle YOLOv8n pré-entraîné - model = YOLO('yolov8n.pt') - - # Créer un tenseur aléatoire torch de forme BCHW (1, 3, 640, 640) avec des valeurs dans l'intervalle [0, 1] et de type float32 - source = torch.rand(1, 3, 640, 640, dtype=torch.float32) - - # Exécuter une inférence sur la source - results = model(source) # liste d'objets Results - ``` diff --git a/docs/fr/modes/track.md b/docs/fr/modes/track.md deleted file mode 100644 index 5da691c3033..00000000000 --- a/docs/fr/modes/track.md +++ /dev/null @@ -1,200 +0,0 @@ ---- -comments: true -description: Apprenez à utiliser Ultralytics YOLO pour le suivi d'objets dans les flux vidéo. Guides pour utiliser différents traceurs et personnaliser les configurations de traceurs. -keywords: Ultralytics, YOLO, suivi d'objets, flux vidéo, BoT-SORT, ByteTrack, guide Python, guide CLI ---- - -# Suivi Multi-Objets avec Ultralytics YOLO - -Exemples de suivi multi-objets - -Le suivi d'objets dans le domaine de l'analyse vidéo est une tâche essentielle qui non seulement identifie l'emplacement et la classe des objets à l'intérieur de l'image, mais maintient également un identifiant unique pour chaque objet détecté au fur et à mesure que la vidéo progresse. Les applications sont illimitées, allant de la surveillance et de la sécurité à l'analytique sportive en temps réel. - -## Pourquoi Choisir Ultralytics YOLO pour le Suivi d'Objet ? - -La sortie des traceurs Ultralytics est cohérente avec la détection standard d'objets mais apporte la valeur ajoutée des identifiants d'objets. Cela facilite le suivi des objets dans les flux vidéo et effectue des analyses subséquentes. Voici pourquoi vous devriez envisager d'utiliser Ultralytics YOLO pour vos besoins de suivi d'objet : - -- **Efficacité :** Traitez les flux vidéo en temps réel sans compromettre la précision. -- **Flexibilité :** Prend en charge de multiples algorithmes de suivi et configurations. -- **Facilité d'Utilisation :** API Python simple et options CLI pour une intégration et un déploiement rapides. -- **Personnalisabilité :** Facile à utiliser avec des modèles YOLO entraînés sur mesure, permettant une intégration dans des applications spécifiques au domaine. - -

-
- -
- Regardez : Détection et suivi d'objets avec Ultralytics YOLOv8. -

- -## Applications dans le Monde Réel - -| Transport | Distribution | Aquaculture | -|:------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|:-----------------------------------------------------------------------------------------------------------------------:| -| ![Suivi de véhicules](https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab) | ![Suivi de personnes](https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527) | ![Suivi de poissons](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142) | -| Suivi de Véhicules | Suivi de Personnes | Suivi de Poissons | - -## Caractéristiques en Bref - -Ultralytics YOLO étend ses fonctionnalités de détection d'objets pour fournir un suivi d'objets robuste et polyvalent : - -- **Suivi en Temps Réel :** Suivi fluide d'objets dans des vidéos à fréquence d'images élevée. -- **Prise en Charge de Multiples Traceurs :** Choisissez parmi une variété d'algorithmes de suivi éprouvés. -- **Configurations de Traceurs Personnalisables :** Adaptez l'algorithme de suivi pour répondre à des exigences spécifiques en réglant divers paramètres. - -## Traceurs Disponibles - -Ultralytics YOLO prend en charge les algorithmes de suivi suivants. Ils peuvent être activés en passant le fichier de configuration YAML correspondant tel que `tracker=tracker_type.yaml` : - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - Utilisez `botsort.yaml` pour activer ce traceur. -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - Utilisez `bytetrack.yaml` pour activer ce traceur. - -Le traceur par défaut est BoT-SORT. - -## Suivi - -Pour exécuter le traceur sur des flux vidéo, utilisez un modèle Detect, Segment ou Pose formé tel que YOLOv8n, YOLOv8n-seg et YOLOv8n-pose. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle officiel ou personnalisé - model = YOLO('yolov8n.pt') # Charger un modèle Detect officiel - model = YOLO('yolov8n-seg.pt') # Charger un modèle Segment officiel - model = YOLO('yolov8n-pose.pt') # Charger un modèle Pose officiel - model = YOLO('chemin/vers/best.pt') # Charger un modèle entraîné personnalisé - - # Effectuer le suivi avec le modèle - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # Suivi avec le traceur par défaut - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # Suivi avec le traceur ByteTrack - ``` - - === "CLI" - - ```bash - # Effectuer le suivi avec divers modèles en utilisant l'interface en ligne de commande - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # Modèle Detect officiel - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # Modèle Segment officiel - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # Modèle Pose officiel - yolo track model=chemin/vers/best.pt source="https://youtu.be/LNwODJXcvt4" # Modèle entraîné personnalisé - - # Suivi en utilisant le traceur ByteTrack - yolo track model=chemin/vers/best.pt tracker="bytetrack.yaml" - ``` - -Comme on peut le voir dans l'utilisation ci-dessus, le suivi est disponible pour tous les modèles Detect, Segment et Pose exécutés sur des vidéos ou des sources de diffusion. - -## Configuration - -### Arguments de Suivi - -La configuration du suivi partage des propriétés avec le mode Prédiction, telles que `conf`, `iou`, et `show`. Pour des configurations supplémentaires, référez-vous à la page [Predict](https://docs.ultralytics.com/modes/predict/) du modèle. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Configurer les paramètres de suivi et exécuter le traceur - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # Configurer les paramètres de suivi et exécuter le traceur en utilisant l'interface en ligne de commande - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### Sélection du Traceur - -Ultralytics vous permet également d'utiliser un fichier de configuration de traceur modifié. Pour cela, faites simplement une copie d'un fichier de configuration de traceur (par exemple, `custom_tracker.yaml`) à partir de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) et modifiez toute configuration (à l'exception du `tracker_type`) selon vos besoins. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger le modèle et exécuter le traceur avec un fichier de configuration personnalisé - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # Charger le modèle et exécuter le traceur avec un fichier de configuration personnalisé en utilisant l'interface en ligne de commande - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -Pour une liste complète des arguments de suivi, référez-vous à la page [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers). - -## Exemples Python - -### Boucle de Persistance des Pistes - -Voici un script Python utilisant OpenCV (`cv2`) et YOLOv8 pour exécuter le suivi d'objet sur des images vidéo. Ce script suppose toujours que vous avez déjà installé les packages nécessaires (`opencv-python` et `ultralytics`). L'argument `persist=True` indique au traceur que l'image ou la trame actuelle est la suivante dans une séquence et s'attend à ce que les pistes de l'image précédente soient présentes dans l'image actuelle. - -!!! Example "Boucle for streaming avec suivi" - - ```python - import cv2 - from ultralytics import YOLO - - # Charger le modèle YOLOv8 - model = YOLO('yolov8n.pt') - - # Ouvrir le fichier vidéo - video_path = "chemin/vers/video.mp4" - cap = cv2.VideoCapture(video_path) - - # Parcourir les images vidéo - while cap.isOpened(): - # Lire une image de la vidéo - success, frame = cap.read() - - if success: - # Exécuter le suivi YOLOv8 sur l'image, en persistant les pistes entre les images - results = model.track(frame, persist=True) - - # Visualiser les résultats sur l'image - annotated_frame = results[0].plot() - - # Afficher l'image annotée - cv2.imshow("Suivi YOLOv8", annotated_frame) - - # Interrompre la boucle si 'q' est pressée - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # Interrompre la boucle si la fin de la vidéo est atteinte - break - - # Relâcher l'objet de capture vidéo et fermer la fenêtre d'affichage - cap.release() - cv2.destroyAllWindows() - ``` - -Veuillez noter le changement de `model(frame)` à `model.track(frame)`, qui active le suivi d'objet à la place de la simple détection. Ce script modifié exécutera le traceur sur chaque image de la vidéo, visualisera les résultats et les affichera dans une fenêtre. La boucle peut être quittée en appuyant sur 'q'. - -## Contribuer de Nouveaux Traceurs - -Êtes-vous compétent en suivi multi-objets et avez-vous réussi à implémenter ou adapter un algorithme de suivi avec Ultralytics YOLO ? Nous vous invitons à contribuer à notre section Traceurs sur [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) ! Vos applications et solutions dans le monde réel pourraient être inestimables pour les utilisateurs travaillant sur des tâches de suivi. - -En contribuant à cette section, vous aidez à élargir l'éventail des solutions de suivi disponibles au sein du cadre Ultralytics YOLO, ajoutant une autre couche de fonctionnalité et d'utilité pour la communauté. - -Pour initier votre contribution, veuillez vous référer à notre [Guide de Contribution](https://docs.ultralytics.com/help/contributing) pour des instructions complètes sur la soumission d'une Pull Request (PR) 🛠️. Nous sommes impatients de voir ce que vous apportez à la table ! - -Ensemble, améliorons les capacités de suivi de l'écosystème Ultralytics YOLO 🙏 ! diff --git a/docs/fr/modes/train.md b/docs/fr/modes/train.md deleted file mode 100644 index 652a91815f2..00000000000 --- a/docs/fr/modes/train.md +++ /dev/null @@ -1,206 +0,0 @@ ---- -comments: true -description: Guide étape par étape pour entraîner des modèles YOLOv8 avec Ultralytics YOLO incluant des exemples d'entraînement mono-GPU et multi-GPU -keywords: Ultralytics, YOLOv8, YOLO, détection d'objet, mode entraînement, jeu de données personnalisé, entraînement GPU, multi-GPU, hyperparamètres, exemples CLI, exemples Python ---- - -# Entraînement de modèles avec Ultralytics YOLO - -Ultralytics YOLO écosystème et intégrations - -## Introduction - -L'entraînement d'un modèle d'apprentissage profond implique de lui fournir des données et d'ajuster ses paramètres afin qu'il puisse faire des prédictions précises. Le mode Entraînement de Ultralytics YOLOv8 est conçu pour un entraînement efficace et performant de modèles de détection d'objets, en utilisant pleinement les capacités du matériel moderne. Ce guide vise à couvrir tous les détails nécessaires pour commencer à entraîner vos propres modèles en utilisant l'ensemble robuste de fonctionnalités de YOLOv8. - -

-
- -
- Regardez : Comment entraîner un modèle YOLOv8 sur votre jeu de données personnalisé dans Google Colab. -

- -## Pourquoi choisir Ultralytics YOLO pour l'entraînement ? - -Voici quelques raisons convaincantes de choisir le mode Entraînement de YOLOv8 : - -- **Efficacité :** Optimisez l'utilisation de votre matériel, que vous soyez sur une configuration mono-GPU ou que vous échelonnier sur plusieurs GPUs. -- **Polyvalence :** Entraînez sur des jeux de données personnalisés en plus de ceux déjà disponibles comme COCO, VOC et ImageNet. -- **Convivialité :** Interfaces CLI et Python simples mais puissantes pour une expérience d'entraînement directe. -- **Flexibilité des hyperparamètres :** Un large éventail d'hyperparamètres personnalisables pour peaufiner les performances du modèle. - -### Principales caractéristiques du mode Entraînement - -Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 : - -- **Téléchargement automatique de jeux de données :** Les jeux de données standards comme COCO, VOC et ImageNet sont téléchargés automatiquement lors de la première utilisation. -- **Support multi-GPU :** Échelonnez vos efforts de formation de manière fluide sur plusieurs GPUs pour accélérer le processus. -- **Configuration des hyperparamètres :** La possibilité de modifier les hyperparamètres via des fichiers de configuration YAML ou des arguments CLI. -- **Visualisation et suivi :** Suivi en temps réel des métriques d'entraînement et visualisation du processus d'apprentissage pour de meilleures perspectives. - -!!! Tip "Astuce" - - * Les jeux de données YOLOv8 comme COCO, VOC, ImageNet et bien d'autres se téléchargent automatiquement lors de la première utilisation, par exemple `yolo train data=coco.yaml` - -## Exemples d'utilisation - -Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une taille d'image de 640. Le dispositif d'entraînement peut être spécifié à l'aide de l'argument `device`. Si aucun argument n'est passé, le GPU `device=0` sera utilisé s'il est disponible, sinon `device=cpu` sera utilisé. Consultez la section Arguments ci-dessous pour obtenir une liste complète des arguments d'entraînement. - -!!! Example "Exemple d'entraînement mono-GPU et CPU" - - Le dispositif est déterminé automatiquement. Si un GPU est disponible, il sera utilisé, sinon l'entraînement commencera sur CPU. - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.yaml') # construire un nouveau modèle à partir de YAML - model = YOLO('yolov8n.pt') # charger un modèle préentraîné (recommandé pour l'entraînement) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # construire à partir de YAML et transférer les poids - - # Entraîner le modèle - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash - # Construire un nouveau modèle à partir de YAML et commencer l'entraînement à partir de zéro - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Commencer l'entraînement à partir d'un modèle préentraîné *.pt - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Construire un nouveau modèle à partir de YAML, transférer les poids préentraînés et commencer l'entraînement - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Entraînement multi-GPU - -L'entraînement multi-GPU permet une utilisation plus efficace des ressources matérielles disponibles en répartissant la charge d'entraînement sur plusieurs GPUs. Cette fonctionnalité est disponible via l'API Python et l'interface de ligne de commande. Pour activer l'entraînement multi-GPU, spécifiez les ID des dispositifs GPU que vous souhaitez utiliser. - -!!! Example "Exemple d'entraînement multi-GPU" - - Pour s'entraîner avec 2 GPUs, les dispositifs CUDA 0 et 1, utilisez les commandes suivantes. Développez à des GPUs supplémentaires selon le besoin. - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # charger un modèle préentraîné (recommandé pour l'entraînement) - - # Entraîner le modèle avec 2 GPUs - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # Commencer l'entraînement à partir d'un modèle préentraîné *.pt en utilisant les GPUs 0 et 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### Entraînement MPS avec Apple M1 et M2 - -Avec le support pour les puces Apple M1 et M2 intégré dans les modèles Ultralytics YOLO, il est maintenant possible d'entraîner vos modèles sur des dispositifs utilisant le puissant framework Metal Performance Shaders (MPS). Le MPS offre un moyen performant d'exécuter des tâches de calcul et de traitement d'image sur le silicium personnalisé d'Apple. - -Pour activer l'entraînement sur les puces Apple M1 et M2, vous devez spécifier 'mps' comme votre dispositif lors du lancement du processus d'entraînement. Voici un exemple de la manière dont vous pourriez le faire en Python et via la ligne de commande : - -!!! Example "Exemple d'entraînement MPS" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # charger un modèle préentraîné (recommandé pour l'entraînement) - - # Entraîner le modèle avec MPS - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # Commencer l'entraînement à partir d'un modèle préentraîné *.pt avec MPS - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -Tout en exploitant la puissance de calcul des puces M1/M2, cela permet un traitement plus efficace des tâches d'entraînement. Pour des conseils plus détaillés et des options de configuration avancée, veuillez consulter la [documentation MPS de PyTorch](https://pytorch.org/docs/stable/notes/mps.html). - -## Journalisation - -Lors de l'entraînement d'un modèle YOLOv8, il peut être précieux de suivre la performance du modèle au fil du temps. C'est là que la journalisation entre en jeu. YOLO d'Ultralytics prend en charge trois types de journaux - Comet, ClearML et TensorBoard. - -Pour utiliser un journal, sélectionnez-le dans le menu déroulant ci-dessus et exécutez-le. Le journal choisi sera installé et initialisé. - -### Comet - -[Comet](https://www.comet.ml/site/) est une plateforme qui permet aux scientifiques de données et aux développeurs de suivre, comparer, expliquer et optimiser les expériences et les modèles. Elle offre des fonctionnalités telles que le suivi en temps réel des mesures, les différences de code et le suivi des hyperparamètres. - -Pour utiliser Comet : - -!!! Example "Exemple" - - === "Python" - ```python - # pip install comet_ml - import comet_ml - - comet_ml.init() - ``` - -N'oubliez pas de vous connecter à votre compte Comet sur leur site web et d'obtenir votre clé API. Vous devrez ajouter cela à vos variables d'environnement ou à votre script pour enregistrer vos expériences. - -### ClearML - -[ClearML](https://www.clear.ml/) est une plateforme open source qui automatise le suivi des expériences et aide à partager efficacement les ressources. Elle est conçue pour aider les équipes à gérer, exécuter et reproduire leur travail en ML plus efficacement. - -Pour utiliser ClearML : - -!!! Example "Exemple" - - === "Python" - ```python - # pip install clearml - import clearml - - clearml.browser_login() - ``` - -Après avoir exécuté ce script, vous devrez vous connecter à votre compte ClearML sur le navigateur et authentifier votre session. - -### TensorBoard - -[TensorBoard](https://www.tensorflow.org/tensorboard) est un ensemble d'outils de visualisation pour TensorFlow. Il vous permet de visualiser votre graphique TensorFlow, de tracer des mesures quantitatives sur l'exécution de votre graphique et de montrer des données supplémentaires comme des images qui le traversent. - -Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) : - -!!! Example "Exemple" - - === "CLI" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # remplacer par le répertoire 'runs' - ``` - -Pour utiliser TensorBoard localement, exécutez la commande ci-dessous et consultez les résultats à l'adresse http://localhost:6006/. - -!!! Example "Exemple" - - === "CLI" - ```bash - tensorboard --logdir ultralytics/runs # remplacer par le répertoire 'runs' - ``` - -Cela chargera TensorBoard et le dirigera vers le répertoire où vos journaux d'entraînement sont sauvegardés. - -Après avoir configuré votre journal, vous pouvez ensuite poursuivre l'entraînement de votre modèle. Toutes les métriques d'entraînement seront automatiquement enregistrées sur votre plateforme choisie, et vous pourrez accéder à ces journaux pour surveiller les performances de votre modèle au fil du temps, comparer différents modèles et identifier les domaines d'amélioration. diff --git a/docs/fr/modes/val.md b/docs/fr/modes/val.md deleted file mode 100644 index f6f51bfb351..00000000000 --- a/docs/fr/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: Guide de validation des modèles YOLOv8. Apprenez à évaluer la performance de vos modèles YOLO en utilisant les paramètres de validation et les métriques avec des exemples en Python et en CLI. -keywords: Ultralytics, YOLO Docs, YOLOv8, validation, évaluation de modèle, hyperparamètres, précision, métriques, Python, CLI ---- - -# Validation des modèles avec Ultralytics YOLO - -Écosystème Ultralytics YOLO et intégrations - -## Introduction - -La validation est une étape cruciale dans le pipeline d'apprentissage automatique, vous permettant d'évaluer la qualité de vos modèles entraînés. Le mode Val dans Ultralytics YOLOv8 offre une gamme robuste d'outils et de métriques pour évaluer la performance de vos modèles de détection d'objets. Ce guide sert de ressource complète pour comprendre comment utiliser efficacement le mode Val pour assurer que vos modèles sont à la fois précis et fiables. - -## Pourquoi valider avec Ultralytics YOLO ? - -Voici pourquoi l'utilisation du mode Val de YOLOv8 est avantageuse : - -- **Précision :** Obtenez des métriques précises telles que mAP50, mAP75 et mAP50-95 pour évaluer de manière exhaustive votre modèle. -- **Convenance :** Utilisez des fonctionnalités intégrées qui se souviennent des paramètres d'entraînement, simplifiant ainsi le processus de validation. -- **Flexibilité :** Validez votre modèle avec les mêmes jeux de données ou des jeux différents et des tailles d'image variées. -- **Réglage des hyperparamètres :** Utilisez les métriques de validation pour peaufiner votre modèle pour de meilleures performances. - -### Caractéristiques clés du mode Val - -Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 : - -- **Paramètres Automatisés :** Les modèles se souviennent de leurs configurations d'entraînement pour une validation simple. -- **Support Multi-métrique :** Évaluez votre modèle en fonction d'une gamme de métriques de précision. -- **CLI et API Python :** Choisissez entre l'interface en ligne de commande ou l'API Python en fonction de vos préférences pour la validation. -- **Compatibilité des Données :** Fonctionne de manière transparente avec les jeux de données utilisés pendant la phase d'entraînement ainsi qu'avec les jeux personnalisés. - -!!! Tip "Conseil" - - * Les modèles YOLOv8 se souviennent automatiquement de leurs paramètres d'entraînement, vous pouvez donc facilement valider un modèle à la même taille d'image et sur le jeu de données original avec juste `yolo val model=yolov8n.pt` ou `model('yolov8n.pt').val()` - -## Exemples d'utilisation - -Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'a besoin d'être passé car le `modèle` conserve ses `données` d'entraînement et arguments comme attributs du modèle. Consultez la section des arguments ci-dessous pour une liste complète des arguments d'exportation. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # charger un modèle officiel - model = YOLO('chemin/vers/meilleur.pt') # charger un modèle personnalisé - - # Valider le modèle - metrics = model.val() # pas besoin d'arguments, jeu de données et paramètres mémorisés - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # une liste contenant map50-95 de chaque catégorie - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # val modèle officiel - yolo detect val model=chemin/vers/meilleur.pt # val modèle personnalisé - ``` - -## Arguments - -Les paramètres de validation pour les modèles YOLO font référence aux divers hyperparamètres et configurations utilisés pour évaluer la performance du modèle sur un jeu de données de validation. Ces paramètres peuvent affecter la performance, la vitesse et la précision du modèle. Certains paramètres de validation YOLO courants incluent la taille du lot, la fréquence à laquelle la validation est effectuée pendant l'entraînement et les métriques utilisées pour évaluer la performance du modèle. D'autres facteurs pouvant affecter le processus de validation incluent la taille et la composition du jeu de données de validation et la tâche spécifique pour laquelle le modèle est utilisé. Il est important de régler et d'expérimenter soigneusement ces paramètres pour s'assurer que le modèle fonctionne bien sur le jeu de données de validation et pour détecter et prévenir le surajustement. - -| Clé | Valeur | Description | -|---------------|---------|------------------------------------------------------------------------------------------------| -| `data` | `None` | chemin vers le fichier de données, par exemple coco128.yaml | -| `imgsz` | `640` | taille des images d'entrée en tant qu'entier | -| `batch` | `16` | nombre d'images par lot (-1 pour AutoBatch) | -| `save_json` | `False` | sauvegarder les résultats dans un fichier JSON | -| `save_hybrid` | `False` | sauvegarder la version hybride des étiquettes (étiquettes + prédictions supplémentaires) | -| `conf` | `0.001` | seuil de confiance de l'objet pour la détection | -| `iou` | `0.6` | seuil d'intersection sur union (IoU) pour la NMS | -| `max_det` | `300` | nombre maximum de détections par image | -| `half` | `True` | utiliser la précision moitié (FP16) | -| `device` | `None` | appareil sur lequel exécuter, par exemple cuda device=0/1/2/3 ou device=cpu | -| `dnn` | `False` | utiliser OpenCV DNN pour l'inférence ONNX | -| `plots` | `False` | afficher les graphiques lors de la formation | -| `rect` | `False` | val rectangulaire avec chaque lot regroupé pour un minimum de rembourrage | -| `split` | `val` | fraction du jeu de données à utiliser pour la validation, par exemple 'val', 'test' ou 'train' | -| diff --git a/docs/fr/quickstart.md b/docs/fr/quickstart.md deleted file mode 100644 index 06286a30b55..00000000000 --- a/docs/fr/quickstart.md +++ /dev/null @@ -1,198 +0,0 @@ ---- -comments: true -description: Explorez diverses méthodes pour installer Ultralytics en utilisant pip, conda, git et Docker. Apprenez comment utiliser Ultralytics avec l'interface en ligne de commande ou au sein de vos projets Python. -keywords: installation d'Ultralytics, pip install Ultralytics, Docker install Ultralytics, interface en ligne de commande Ultralytics, interface Python Ultralytics ---- - -## Installer Ultralytics - -Ultralytics propose diverses méthodes d'installation, y compris pip, conda et Docker. Installez YOLOv8 via le package `ultralytics` avec pip pour obtenir la dernière version stable ou en clonant le [répertoire GitHub d'Ultralytics](https://github.com/ultralytics/ultralytics) pour la version la plus récente. Docker peut être utilisé pour exécuter le package dans un conteneur isolé, évitant l'installation locale. - -!!! Example "Installer" - - === "Installation avec Pip (recommandé)" - Installez le package `ultralytics` en utilisant pip, ou mettez à jour une installation existante en exécutant `pip install -U ultralytics`. Visitez l'Index des Packages Python (PyPI) pour plus de détails sur le package `ultralytics` : [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). - - [![Version PyPI](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Téléchargements](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # Installer le package ultralytics depuis PyPI - pip install ultralytics - ``` - - Vous pouvez également installer le package `ultralytics` directement depuis le [répertoire GitHub](https://github.com/ultralytics/ultralytics). Cela peut être utile si vous voulez la version de développement la plus récente. Assurez-vous d'avoir l'outil en ligne de commande Git installé sur votre système. La commande `@main` installe la branche `main` et peut être modifiée pour une autre branche, p. ex. `@my-branch`, ou supprimée entièrement pour revenir par défaut à la branche `main`. - - ```bash - # Installer le package ultralytics depuis GitHub - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "Installation avec Conda" - Conda est un gestionnaire de packages alternatif à pip qui peut également être utilisé pour l'installation. Visitez Anaconda pour plus de détails à [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics). Le répertoire feedstock d'Ultralytics pour la mise à jour du package conda est sur [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/). - - - [![Recette Conda](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Téléchargements Conda](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Version Conda](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Plateformes Conda](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # Installer le package ultralytics en utilisant conda - conda install -c conda-forge ultralytics - ``` - - !!! Note "Note" - - Si vous installez dans un environnement CUDA, la meilleure pratique est d'installer `ultralytics`, `pytorch` et `pytorch-cuda` dans la même commande pour permettre au gestionnaire de package conda de résoudre les conflits, ou bien d'installer `pytorch-cuda` en dernier pour lui permettre de remplacer le package `pytorch` spécifique aux CPU si nécessaire. - ```bash - # Installer tous les packages ensemble en utilisant conda - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Image Docker Conda - - Les images Docker Conda d'Ultralytics sont également disponibles sur [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics). Ces images sont basées sur [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) et constituent un moyen simple de commencer à utiliser `ultralytics` dans un environnement Conda. - - ```bash - # Définir le nom de l'image comme variable - t=ultralytics/ultralytics:latest-conda - - # Télécharger la dernière image ultralytics de Docker Hub - sudo docker pull $t - - # Exécuter l'image ultralytics dans un conteneur avec support GPU - sudo docker run -it --ipc=host --gpus all $t # tous les GPUs - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # spécifier les GPUs - ``` - - === "Clone Git" - Clonez le répertoire `ultralytics` si vous êtes intéressé par la contribution au développement ou si vous souhaitez expérimenter avec le dernier code source. Après le clonage, naviguez dans le répertoire et installez le package en mode éditable `-e` en utilisant pip. - ```bash - # Cloner le répertoire ultralytics - git clone https://github.com/ultralytics/ultralytics - - # Naviguer vers le répertoire cloné - cd ultralytics - - # Installer le package en mode éditable pour le développement - pip install -e . - ``` - -Voir le fichier [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml) d'`ultralytics` pour une liste des dépendances. Notez que tous les exemples ci-dessus installent toutes les dépendances requises. - -

-
- -
- Watch: Ultralytics YOLO Quick Start Guide -

- -!!! astuce "Conseil" - - Les prérequis de PyTorch varient selon le système d'exploitation et les exigences CUDA, donc il est recommandé d'installer PyTorch en premier en suivant les instructions sur [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). - - - Instructions d'installation de PyTorch - - -## Utiliser Ultralytics avec CLI - -L'interface en ligne de commande (CLI) d'Ultralytics permet l'utilisation de commandes simples en une seule ligne sans nécessiter d'environnement Python. La CLI ne requiert pas de personnalisation ou de code Python. Vous pouvez simplement exécuter toutes les tâches depuis le terminal avec la commande `yolo`. Consultez le [Guide CLI](/../usage/cli.md) pour en savoir plus sur l'utilisation de YOLOv8 depuis la ligne de commande. - -!!! Example "Exemple" - - === "Syntaxe" - - Les commandes `yolo` d'Ultralytics utilisent la syntaxe suivante : - ```bash - yolo TÂCHE MODE ARGS - - Où TÂCHE (facultatif) est l'une de [detect, segment, classify] - MODE (obligatoire) est l'un de [train, val, predict, export, track] - ARGS (facultatif) sont n'importe quel nombre de paires personnalisées 'arg=valeur' comme 'imgsz=320' qui remplacent les valeurs par défaut. - ``` - Voyez tous les ARGS dans le [Guide de Configuration](/../usage/cfg.md) complet ou avec `yolo cfg` - - === "Entraînement" - - Entraînez un modèle de détection pour 10 epochs avec un learning_rate initial de 0.01 - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "Prédiction" - - Prédisez une vidéo YouTube en utilisant un modèle de segmentation pré-entraîné à une taille d'image de 320 : - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "Validation" - - Validez un modèle de détection pré-entraîné avec un batch-size de 1 et une taille d'image de 640 : - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "Exportation" - - Exportez un modèle de classification YOLOv8n au format ONNX à une taille d'image de 224 par 128 (pas de TÂCHE requise) - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "Spécial" - - Exécutez des commandes spéciales pour voir la version, afficher les paramètres, effectuer des vérifications et plus encore : - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "Avertissement" - - Les arguments doivent être passés sous forme de paires `arg=val`, séparés par un signe égal `=` et délimités par des espaces ` ` entre les paires. N'utilisez pas de préfixes d'arguments `--` ou de virgules `,` entre les arguments. - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`   ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25`   ❌ - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25`   ❌ - -[Guide CLI](/../usage/cli.md){ .md-button } - -## Utiliser Ultralytics avec Python - -L'interface Python de YOLOv8 permet une intégration transparente dans vos projets Python, facilitant le chargement, l'exécution et le traitement de la sortie du modèle. Conçue avec simplicité et facilité d'utilisation à l'esprit, l'interface Python permet aux utilisateurs de mettre en œuvre rapidement la détection d'objets, la segmentation et la classification dans leurs projets. Cela fait de l'interface Python de YOLOv8 un outil inestimable pour quiconque cherche à intégrer ces fonctionnalités dans ses projets Python. - -Par exemple, les utilisateurs peuvent charger un modèle, l'entraîner, évaluer ses performances sur un set de validation, et même l'exporter au format ONNX avec seulement quelques lignes de code. Consultez le [Guide Python](/../usage/python.md) pour en savoir plus sur l'utilisation de YOLOv8 au sein de vos projets Python. - -!!! Example "Exemple" - - ```python - from ultralytics import YOLO - - # Créer un nouveau modèle YOLO à partir de zéro - model = YOLO('yolov8n.yaml') - - # Charger un modèle YOLO pré-entraîné (recommandé pour l'entraînement) - model = YOLO('yolov8n.pt') - - # Entraîner le modèle en utilisant le jeu de données 'coco128.yaml' pour 3 epochs - résultats = model.train(data='coco128.yaml', epochs=3) - - # Évaluer la performance du modèle sur le set de validation - résultats = model.val() - - # Effectuer la détection d'objets sur une image en utilisant le modèle - résultats = model('https://ultralytics.com/images/bus.jpg') - - # Exporter le modèle au format ONNX - succès = model.export(format='onnx') - ``` - -[Guide Python](/../usage/python.md){.md-button .md-button--primary} diff --git a/docs/fr/tasks/classify.md b/docs/fr/tasks/classify.md deleted file mode 100644 index cc65044ee97..00000000000 --- a/docs/fr/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: Apprenez-en davantage sur les modèles de classification d'images YOLOv8 Classify. Obtenez des informations détaillées sur la liste des modèles pré-entraînés et comment entraîner, valider, prédire et exporter des modèles. -keywords: Ultralytics, YOLOv8, Classification d'images, Modèles pré-entraînés, YOLOv8n-cls, Entraînement, Validation, Prédiction, Exportation de modèles ---- - -# Classification d'images - -Exemples de classification d'images - -La classification d'images est la tâche la plus simple des trois et consiste à classer une image entière dans l'une d'un ensemble de classes prédéfinies. - -Le résultat d'un classificateur d'images est une étiquette de classe unique et un score de confiance. La classification d'images est utile lorsque vous avez besoin de savoir seulement à quelle classe appartient une image et que vous n'avez pas besoin de connaître l'emplacement des objets de cette classe ou leur forme exacte. - -!!! Tip "Astuce" - - Les modèles YOLOv8 Classify utilisent le suffixe `-cls`, par exemple `yolov8n-cls.pt` et sont pré-entraînés sur [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -## [Modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Les modèles Classify pré-entraînés YOLOv8 sont présentés ici. Les modèles Detect, Segment et Pose sont pré-entraînés sur le dataset [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), tandis que les modèles Classify sont pré-entraînés sur le dataset [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -Les [modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) se téléchargent automatiquement depuis la dernière version Ultralytics [release](https://github.com/ultralytics/assets/releases) lors de la première utilisation. - -| Modèle | taille
(pixels) | acc
top1 | acc
top5 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | params
(M) | FLOPs
(B) à 640 | -|----------------------------------------------------------------------------------------------|-------------------------|------------------|------------------|----------------------------------|---------------------------------------|--------------------|-------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- Les valeurs **acc** sont les précisions des modèles sur le jeu de données de validation d'[ImageNet](https://www.image-net.org/). -
Pour reproduire : `yolo val classify data=path/to/ImageNet device=0` -- Les **vitesses** sont calculées sur les images de validation d'ImageNet à l'aide d'une instance [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Pour reproduire : `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` - -## Entraînement - -Entraînez le modèle YOLOv8n-cls sur le dataset MNIST160 pendant 100 époques avec une taille d'image de 64. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md). - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-cls.yaml') # construire un nouveau modèle à partir du YAML - model = YOLO('yolov8n-cls.pt') # charger un modèle pré-entraîné (recommandé pour l'entraînement) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # construire à partir du YAML et transférer les poids - - # Entraîner le modèle - results = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # Construire un nouveau modèle à partir du YAML et commencer l'entraînement à partir de zéro - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # Commencer l'entraînement à partir d'un modèle *.pt pré-entraîné - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # Construire un nouveau modèle à partir du YAML, transférer les poids pré-entraînés et commencer l'entraînement - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### Format du dataset - -Le format du dataset de classification YOLO peut être trouvé en détails dans le [Guide des Datasets](../../../datasets/classify/index.md). - -## Validation - -Validez la précision du modèle YOLOv8n-cls entraîné sur le dataset MNIST160. Aucun argument n'est nécessaire car le `modèle` conserve ses données d'entraînement et arguments en tant qu'attributs du modèle. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-cls.pt') # charger un modèle officiel - model = YOLO('path/to/best.pt') # charger un modèle personnalisé - - # Valider le modèle - metrics = model.val() # aucun argument nécessaire, les données et les paramètres sont mémorisés - metrics.top1 # précision top 1 - metrics.top5 # précision top 5 - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # valider le modèle officiel - yolo classify val model=path/to/best.pt # valider le modèle personnalisé - ``` - -## Prédiction - -Utilisez un modèle YOLOv8n-cls entraîné pour exécuter des prédictions sur des images. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-cls.pt') # charger un modèle officiel - model = YOLO('path/to/best.pt') # charger un modèle personnalisé - - # Prédire avec le modèle - results = model('https://ultralytics.com/images/bus.jpg') # prédire sur une image - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # prédiction avec le modèle officiel - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # prédiction avec le modèle personnalisé - ``` - -Voir les détails complets du mode `predict` sur la page [Prédire](https://docs.ultralytics.com/modes/predict/). - -## Exportation - -Exportez un modèle YOLOv8n-cls dans un format différent comme ONNX, CoreML, etc. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-cls.pt') # charger un modèle officiel - model = YOLO('path/to/best.pt') # charger un modèle entraîné personnalisé - - # Exporter le modèle - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # exporter le modèle officiel - yolo export model=path/to/best.pt format=onnx # exporter le modèle entraîné personnalisé - ``` - -Les formats d'exportation disponibles pour YOLOv8-cls sont présentés dans le tableau ci-dessous. Vous pouvez prédire ou valider directement sur les modèles exportés, par exemple `yolo predict model=yolov8n-cls.onnx`. Des exemples d'utilisation sont présentés pour votre modèle une fois l'exportation terminée. - -| Format | Argument `format` | Modèle | Métadonnées | Arguments | -|--------------------------------------------------------------------|-------------------|-------------------------------|-------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -Voir les détails complets de l'`exportation` sur la page [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/fr/tasks/detect.md b/docs/fr/tasks/detect.md deleted file mode 100644 index 75fa0272102..00000000000 --- a/docs/fr/tasks/detect.md +++ /dev/null @@ -1,184 +0,0 @@ ---- -comments: true -description: Documentation officielle pour YOLOv8 par Ultralytics. Apprenez comment entraîner, valider, prédire et exporter des modèles dans différents formats. Incluant des statistiques de performances détaillées. -keywords: YOLOv8, Ultralytics, détection d'objets, modèles pré-entraînés, entraînement, validation, prédiction, exportation de modèles, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# Détection d'Objets - -Exemples de détection d'objets - -La détection d'objets est une tâche qui implique l'identification de l'emplacement et de la classe des objets dans une image ou un flux vidéo. - -La sortie d'un détecteur d'objets est un ensemble de boîtes englobantes qui entourent les objets de l'image, accompagnées de libellés de classe et de scores de confiance pour chaque boîte. La détection d'objets est un bon choix lorsque vous avez besoin d'identifier des objets d'intérêt dans une scène, mais que vous n'avez pas besoin de connaître exactement où se trouve l'objet ou sa forme exacte. - -

-
- -
- Regardez : Détection d'Objets avec le Modèle Pré-entraîné Ultralytics YOLOv8. -

- -!!! Tip "Conseil" - - Les modèles Detect YOLOv8 sont les modèles YOLOv8 par défaut, c.-à-d. `yolov8n.pt` et sont pré-entraînés sur le jeu de données [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [Modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Les modèles pré-entraînés Detect YOLOv8 sont présentés ici. Les modèles Detect, Segment, et Pose sont pré-entraînés sur le jeu de données [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), tandis que les modèles Classify sont pré-entraînés sur le jeu de données [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -[Les modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) se téléchargent automatiquement à partir de la dernière [version](https://github.com/ultralytics/assets/releases) d'Ultralytics lors de la première utilisation. - -| Modèle | Taille
(pixels) | mAPval
50-95 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | Paramètres
(M) | FLOPs
(B) | -|--------------------------------------------------------------------------------------|-------------------------|----------------------|----------------------------------|---------------------------------------|------------------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- Les valeurs de **mAPval** sont pour un seul modèle à une seule échelle sur le jeu de données [COCO val2017](https://cocodataset.org). -
Reproductible avec `yolo val detect data=coco.yaml device=0` -- La **Vitesse** est moyennée sur les images COCO val en utilisant une instance [Amazon EC2 P4d](https://aws.amazon.com/fr/ec2/instance-types/p4/). -
Reproductible avec `yolo val detect data=coco128.yaml batch=1 device=0|cpu` - -## Entraînement - -Entraînez le modèle YOLOv8n sur le jeu de données COCO128 pendant 100 époques à la taille d'image de 640. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md). - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.yaml') # construire un nouveau modèle à partir de YAML - model = YOLO('yolov8n.pt') # charger un modèle pré-entraîné (recommandé pour l'entraînement) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # construire à partir de YAML et transférer les poids - - # Entraîner le modèle - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construire un nouveau modèle à partir de YAML et commencer l'entraînement à partir de zéro - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Commencer l'entraînement à partir d'un modèle *.pt pré-entraîné - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Construire un nouveau modèle à partir de YAML, transférer les poids pré-entraînés et commencer l'entraînement - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Format des données - -Le format des jeux de données de détection YOLO est détaillé dans le [Guide des Jeux de Données](../../../datasets/detect/index.md). Pour convertir votre jeu de données existant depuis d'autres formats (comme COCO, etc.) vers le format YOLO, veuillez utiliser l'outil [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) par Ultralytics. - -## Validation - -Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'est nécessaire puisque le `modèle` conserve ses `données` d'entraînement et arguments en tant qu'attributs du modèle. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # charger un modèle officiel - model = YOLO('chemin/vers/best.pt') # charger un modèle personnalisé - - # Valider le modèle - metrics = model.val() # pas d'arguments nécessaires, jeu de données et paramètres enregistrés - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # une liste contenant map50-95 de chaque catégorie - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # valider le modèle officiel - yolo detect val model=chemin/vers/best.pt # valider le modèle personnalisé - ``` - -## Prédiction - -Utilisez un modèle YOLOv8n entraîné pour exécuter des prédictions sur des images. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # charger un modèle officiel - model = YOLO('chemin/vers/best.pt') # charger un modèle personnalisé - - # Prédire avec le modèle - results = model('https://ultralytics.com/images/bus.jpg') # prédire sur une image - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # prédire avec le modèle officiel - yolo detect predict model=chemin/vers/best.pt source='https://ultralytics.com/images/bus.jpg' # prédire avec le modèle personnalisé - ``` - -Consultez les détails complets du mode `predict` sur la page [Prédire](https://docs.ultralytics.com/modes/predict/). - -## Exportation - -Exportez un modèle YOLOv8n dans un format différent tel que ONNX, CoreML, etc. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n.pt') # charger un modèle officiel - model = YOLO('chemin/vers/best.pt') # charger un modèle entraîné personnalisé - - # Exporter le modèle - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # exporter le modèle officiel - yolo export model=chemin/vers/best.pt format=onnx # exporter le modèle entraîné personnalisé - ``` - -Les formats d'exportation YOLOv8 disponibles sont présentés dans le tableau ci-dessous. Vous pouvez directement prédire ou valider sur des modèles exportés, c'est-à-dire `yolo predict model=yolov8n.onnx`. Des exemples d'utilisation sont présentés pour votre modèle après l'exportation complète. - -| Format | Argument `format` | Modèle | Métadonnées | Arguments | -|----------------------------------------------------------------------|-------------------|---------------------------|-------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [Modèle TF Enregistré](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [GraphDef TF](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TPU Edge TF](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Consultez tous les détails `export` sur la page [Exporter](https://docs.ultralytics.com/modes/export/). diff --git a/docs/fr/tasks/index.md b/docs/fr/tasks/index.md deleted file mode 100644 index 7c0260ae496..00000000000 --- a/docs/fr/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: Découvrez les tâches fondamentales de vision par ordinateur que YOLOv8 peut effectuer, y compris la détection, la segmentation, la classification et l'estimation de la pose. Comprenez leur utilité dans vos projets d'IA. -keywords: Ultralytics, YOLOv8, Détection, Segmentation, Classification, Estimation de la Pose, Cadre IA, Tâches de Vision par Ordinateur ---- - -# Tâches d'Ultralytics YOLOv8 - -
-Tâches prises en charge par Ultralytics YOLO - -YOLOv8 est un cadre d'intelligence artificielle qui prend en charge de multiples tâches de **vision par ordinateur**. Le cadre peut être utilisé pour effectuer de la [détection](detect.md), de la [segmentation](segment.md), de la [classification](classify.md) et de l'estimation de la [pose](pose.md). Chacune de ces tâches a un objectif et un cas d'utilisation différents. - -!!! Note "Note" - - 🚧 Notre documentation multilingue est actuellement en construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏 - -

-
- -
- Regardez : Explorez les Tâches YOLO Ultralytics : Détection d'Objets, Segmentation, Suivi et Estimation de la Pose. -

- -## [Détection](detect.md) - -La détection est la tâche principale prise en charge par YOLOv8. Elle implique de détecter des objets dans une image ou une trame vidéo et de dessiner des boîtes englobantes autour d'eux. Les objets détectés sont classés dans différentes catégories en fonction de leurs caractéristiques. YOLOv8 peut détecter plusieurs objets dans une seule image ou trame vidéo avec une grande précision et rapidité. - -[Exemples de Détection](detect.md){ .md-button } - -## [Segmentation](segment.md) - -La segmentation est une tâche qui implique de segmenter une image en différentes régions en fonction du contenu de l'image. Chaque région se voit attribuer une étiquette en fonction de son contenu. Cette tâche est utile dans des applications telles que la segmentation d'image et l'imagerie médicale. YOLOv8 utilise une variante de l'architecture U-Net pour effectuer la segmentation. - -[Exemples de Segmentation](segment.md){ .md-button } - -## [Classification](classify.md) - -La classification est une tâche qui implique de classer une image dans différentes catégories. YOLOv8 peut être utilisé pour classifier des images en fonction de leur contenu. Il utilise une variante de l'architecture EfficientNet pour effectuer la classification. - -[Exemples de Classification](classify.md){ .md-button } - -## [Pose](pose.md) - -La détection de pose/points clés est une tâche qui implique de détecter des points spécifiques dans une image ou une trame vidéo. Ces points sont appelés points clés et sont utilisés pour suivre le mouvement ou pour l'estimation de la pose. YOLOv8 peut détecter des points clés dans une image ou une trame vidéo avec une grande précision et rapidité. - -[Exemples de Pose](pose.md){ .md-button } - -## Conclusion - -YOLOv8 prend en charge de multiples tâches, y compris la détection, la segmentation, la classification et la détection de points clés. Chacune de ces tâches a des objectifs et des cas d'utilisation différents. En comprenant les différences entre ces tâches, vous pouvez choisir la tâche appropriée pour votre application de vision par ordinateur. diff --git a/docs/fr/tasks/pose.md b/docs/fr/tasks/pose.md deleted file mode 100644 index 73d8c10e111..00000000000 --- a/docs/fr/tasks/pose.md +++ /dev/null @@ -1,176 +0,0 @@ ---- -comments: true -description: Apprenez à utiliser Ultralytics YOLOv8 pour des tâches d'estimation de pose. Trouvez des modèles pré-entraînés, apprenez à entraîner, valider, prédire et exporter vos propres modèles. -keywords: Ultralytics, YOLO, YOLOv8, estimation de pose, détection de points clés, détection d'objet, modèles pré-entraînés, apprentissage automatique, intelligence artificielle ---- - -# Estimation de Pose - -![Estimation de pose exemples](https://user-images.githubusercontent.com/26833433/243418616-9811ac0b-a4a7-452a-8aba-484ba32bb4a8.png) - -L'estimation de pose est une tâche qui consiste à identifier l'emplacement de points spécifiques dans une image, souvent appelés points clés. Ces points clés peuvent représenter différentes parties de l'objet telles que les articulations, les repères ou d'autres caractéristiques distinctives. L'emplacement des points clés est généralement représenté par un ensemble de coordonnées 2D `[x, y]` ou 3D `[x, y, visible]`. - -La sortie d'un modèle d'estimation de pose est un ensemble de points représentant les points clés sur un objet dans l'image, généralement accompagnés des scores de confiance pour chaque point. L'estimation de pose est un bon choix lorsque vous avez besoin d'identifier des parties spécifiques d'un objet dans une scène, et leur emplacement les uns par rapport aux autres. - -![Regardez : Estimation de Pose avec Ultralytics YOLOv8](https://www.youtube.com/embed/Y28xXQmju64?si=pCY4ZwejZFu6Z4kZ) - -!!! astuce "Conseil" - - Les modèles YOLOv8 _pose_ utilisent le suffixe `-pose`, c'est-à-dire `yolov8n-pose.pt`. Ces modèles sont entraînés sur le jeu de données [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) et conviennent à une variété de tâches d'estimation de pose. - -## [Modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Les modèles Pose pré-entraînés YOLOv8 sont montrés ici. Les modèles Detect, Segment et Pose sont pré-entraînés sur le jeu de données [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), tandis que les modèles Classify sont pré-entraînés sur le jeu de données [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -Les [Modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) se téléchargent automatiquement à partir de la dernière version d'Ultralytics [release](https://github.com/ultralytics/assets/releases) lors de la première utilisation. - -| Modèle | taille
(pixels) | mAPpose
50-95 | mAPpose
50 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | params
(M) | FLOPs
(B) | -|------------------------------------------------------------------------------------------------------|-------------------------|-----------------------|--------------------|----------------------------------|---------------------------------------|--------------------|-------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- Les valeurs de **mAPval** sont pour un seul modèle à une seule échelle sur le jeu de données [COCO Keypoints val2017](https://cocodataset.org). -
Reproduire avec `yolo val pose data=coco-pose.yaml device=0` -- La **vitesse** moyenne sur les images de validation COCO en utilisant une instance [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Reproduire avec `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` - -## Entraînement - -Entraînez un modèle YOLOv8-pose sur le jeu de données COCO128-pose. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-pose.yaml') # construire un nouveau modèle à partir du YAML - model = YOLO('yolov8n-pose.pt') # charger un modèle pré-entraîné (recommandé pour l'entraînement) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # construire à partir du YAML et transférer les poids - - # Entraîner le modèle - résultats = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construire un nouveau modèle à partir du YAML et commencer l'entraînement à partir de zéro - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # Commencer l'entraînement à partir d'un modèle *.pt pré-entraîné - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # Construire un nouveau modèle à partir du YAML, transférer les poids pré-entraînés et commencer l'entraînement - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### Format du jeu de données - -Le format du jeu de données YOLO pose peut être trouvé en détail dans le [Guide des jeux de données](../../../datasets/pose/index.md). Pour convertir votre jeu de données existant à partir d'autres formats (comme COCO, etc.) vers le format YOLO, veuillez utiliser l'outil [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) d'Ultralytics. - -## Val - -Validez la précision du modèle YOLOv8n-pose entraîné sur le jeu de données COCO128-pose. Aucun argument n'est nécessaire car le `modèle` conserve ses données d'entraînement et arguments en tant qu'attributs du modèle. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-pose.pt') # charger un modèle officiel - model = YOLO('chemin/vers/best.pt') # charger un modèle personnalisé - - # Valider le modèle - métriques = model.val() # aucun argument nécessaire, jeu de données et paramètres mémorisés - métriques.box.map # map50-95 - métriques.box.map50 # map50 - métriques.box.map75 # map75 - métriques.box.maps # une liste contenant map50-95 de chaque catégorie - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # val modèle officiel - yolo pose val model=chemin/vers/best.pt # val modèle personnalisé - ``` - -## Prédiction - -Utilisez un modèle YOLOv8n-pose entraîné pour exécuter des prédictions sur des images. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-pose.pt') # charger un modèle officiel - model = YOLO('chemin/vers/best.pt') # charger un modèle personnalisé - - # Prédire avec le modèle - résultats = model('https://ultralytics.com/images/bus.jpg') # prédire sur une image - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # prédire avec modèle officiel - yolo pose predict model=chemin/vers/best.pt source='https://ultralytics.com/images/bus.jpg' # prédire avec modèle personnalisé - ``` - -Consultez les détails complets du mode `predict` sur la page [Prédire](https://docs.ultralytics.com/modes/predict/). - -## Exportation - -Exportez un modèle YOLOv8n Pose dans un autre format tel que ONNX, CoreML, etc. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-pose.pt') # charger un modèle officiel - model = YOLO('chemin/vers/best.pt') # charger un modèle personnalisé entraîné - - # Exporter le modèle - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # exporter modèle officiel - yolo export model=chemin/vers/best.pt format=onnx # exporter modèle personnalisé entraîné - ``` - -Les formats d'exportation YOLOv8-pose disponibles sont dans le tableau ci-dessous. Vous pouvez prédire ou valider directement sur des modèles exportés, par exemple `yolo predict model=yolov8n-pose.onnx`. Des exemples d'utilisation sont montrés pour votre modèle après la fin de l'exportation. - -| Format | Argument `format` | Modèle | Métadonnées | Arguments | -|--------------------------------------------------------------------|-------------------|--------------------------------|-------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -Consultez les détails complets de `export` sur la page [Exporter](https://docs.ultralytics.com/modes/export/). diff --git a/docs/fr/tasks/segment.md b/docs/fr/tasks/segment.md deleted file mode 100644 index adf5ab79d29..00000000000 --- a/docs/fr/tasks/segment.md +++ /dev/null @@ -1,189 +0,0 @@ ---- -comments: true -description: Apprenez à utiliser les modèles de segmentation d'instance avec Ultralytics YOLO. Instructions pour la formation, la validation, la prédiction d'image et l'exportation de modèle. -keywords: yolov8, segmentation d'instance, Ultralytics, jeu de données COCO, segmentation d'image, détection d'objet, formation de modèle, validation de modèle, prédiction d'image, exportation de modèle ---- - -# Segmentation d'Instance - -Exemples de segmentation d'instance - -La segmentation d'instance va plus loin que la détection d'objet et implique d'identifier des objets individuels dans une image et de les segmenter du reste de l'image. - -Le résultat d'un modèle de segmentation d'instance est un ensemble de masques ou de contours qui délimitent chaque objet dans l'image, accompagnés d'étiquettes de classe et de scores de confiance pour chaque objet. La segmentation d'instance est utile lorsque vous avez besoin de savoir non seulement où se trouvent les objets dans une image, mais aussi quelle est leur forme exacte. - -

-
- -
- Regarder : Exécutez la Segmentation avec le Modèle Ultralytics YOLOv8 Pré-Entraîné en Python. -

- -!!! astuce "Astuce" - - Les modèles YOLOv8 Segment utilisent le suffixe `-seg`, par exemple `yolov8n-seg.pt` et sont pré-entraînés sur [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [Modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Les modèles Segment pré-entraînés YOLOv8 sont indiqués ici. Les modèles Detect, Segment et Pose sont pré-entraînés sur le jeu de données [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), tandis que les modèles Classify sont pré-entraînés sur le jeu de données [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -Les [modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) se téléchargent automatiquement depuis la dernière [version](https://github.com/ultralytics/assets/releases) Ultralytics lors de la première utilisation. - -| Modèle | Taille
(pixels) | mAPboîte
50-95 | mAPmasque
50-95 | Vitesse
CPU ONNX
(ms) | Vitesse
A100 TensorRT
(ms) | Paramètres
(M) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|-------------------------|------------------------|-------------------------|----------------------------------|---------------------------------------|------------------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- Les valeurs **mAPval** sont pour un seul modèle à une seule échelle sur le jeu de données [COCO val2017](https://cocodataset.org). -
Pour reproduire, utilisez `yolo val segment data=coco.yaml device=0` -- **Vitesse** moyennée sur les images COCO val en utilisant une instance [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Pour reproduire, utilisez `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` - -## Formation - -Entraînez YOLOv8n-seg sur le jeu de données COCO128-seg pendant 100 époques à la taille d'image 640. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md). - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-seg.yaml') # construire un nouveau modèle à partir du YAML - model = YOLO('yolov8n-seg.pt') # charger un modèle pré-entraîné (recommandé pour la formation) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # construire à partir du YAML et transférer les poids - - # Entraîner le modèle - résultats = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construire un nouveau modèle à partir du YAML et commencer la formation à partir de zéro - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # Commencer la formation à partir d'un modèle *.pt pré-entraîné - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # Construire un nouveau modèle à partir du YAML, transférer les poids pré-entraînés et commencer la formation - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### Format des données - -Le format des données de segmentation YOLO peut être trouvé en détail dans le [Guide du Jeu de Données](../../../datasets/segment/index.md). Pour convertir votre jeu de données existant à partir d'autres formats (comme COCO, etc.) au format YOLO, veuillez utiliser l'outil [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) par Ultralytics. - -## Validation - -Validez la précision du modèle YOLOv8n-seg entraîné sur le jeu de données COCO128-seg. Aucun argument n'est nécessaire car le `modèle` -conserve ses données de formation et ses arguments comme attributs du modèle. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-seg.pt') # charger un modèle officiel - model = YOLO('chemin/vers/le/meilleur.pt') # charger un modèle personnalisé - - # Valider le modèle - métriques = model.val() # aucun argument nécessaire, jeu de données et paramètres mémorisés - métriques.box.map # map50-95(B) - métriques.box.map50 # map50(B) - métriques.box.map75 # map75(B) - métriques.box.maps # une liste contient map50-95(B) de chaque catégorie - métriques.seg.map # map50-95(M) - métriques.seg.map50 # map50(M) - métriques.seg.map75 # map75(M) - métriques.seg.maps # une liste contient map50-95(M) de chaque catégorie - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # valider le modèle officiel - yolo segment val model=chemin/vers/le/meilleur.pt # valider le modèle personnalisé - ``` - -## Prédiction - -Utilisez un modèle YOLOv8n-seg entraîné pour effectuer des prédictions sur des images. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-seg.pt') # charger un modèle officiel - model = YOLO('chemin/vers/le/meilleur.pt') # charger un modèle personnalisé - - # Prédire avec le modèle - résultats = model('https://ultralytics.com/images/bus.jpg') # prédire sur une image - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # prédire avec le modèle officiel - yolo segment predict model=chemin/vers/le/meilleur.pt source='https://ultralytics.com/images/bus.jpg' # prédire avec le modèle personnalisé - ``` - -Voir les détails complets du mode `predict` sur la page [Predict](https://docs.ultralytics.com/modes/predict/). - -## Exportation - -Exportez un modèle YOLOv8n-seg vers un format différent comme ONNX, CoreML, etc. - -!!! Example "Exemple" - - === "Python" - - ```python - from ultralytics import YOLO - - # Charger un modèle - model = YOLO('yolov8n-seg.pt') # charger un modèle officiel - model = YOLO('chemin/vers/le/meilleur.pt') # charger un modèle entraîné personnalisé - - # Exporter le modèle - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # exporter le modèle officiel - yolo export model=chemin/vers/le/meilleur.pt format=onnx # exporter le modèle entraîné personnalisé - ``` - -Les formats d'exportation YOLOv8-seg disponibles sont dans le tableau ci-dessous. Vous pouvez prédire ou valider directement sur les modèles exportés, par exemple `yolo predict model=yolov8n-seg.onnx`. Des exemples d'utilisation sont présentés pour votre modèle après l'exportation. - -| Format | Argument `format` | Modèle | Métadonnées | Arguments | -|--------------------------------------------------------------------|-------------------|-------------------------------|-------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | - -Voir les détails complets d'`export` sur la page [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/hi/datasets/index.md b/docs/hi/datasets/index.md deleted file mode 100644 index 95fb255ccae..00000000000 --- a/docs/hi/datasets/index.md +++ /dev/null @@ -1,134 +0,0 @@ ---- -comments: true -description: Ultralytics द्वारा समर्थित विभिन्न कंप्यूटर विज्ञान डेटासेट्स का अवलोकन | वस्त्र स्पष्टीकरण, संरेखण, पोज आकलन, छवि वर्गीकरण और बहु-वस्तु ट्रैकिंग के लिए। -keywords: computer vision, datasets, Ultralytics, YOLO, object detection, instance segmentation, pose estimation, image classification, multi-object tracking ---- - -# डेटासेट अवलोकन - -Ultralytics कंप्यूटर विज्ञान कार्यों को सुविधाजनक बनाने के लिए विभिन्न डेटासेट्स का समर्थन प्रदान करता है। इसमें वस्त्र स्पष्टीकरण, संदर्भ बनाने, पोज आकलन, वर्गीकरण और बहु-वस्तु ट्रैकिंग जैसे कंप्यूटर विज्ञान कार्यों के लिए। नीचे मुख्य Ultralytics डेटासेट की सूची है, इसके पश्चात प्रत्येक कंप्यूटर विज्ञान कार्य और संबंधित डेटासेटों का संक्षेप दिया गया है। - -!!! Note "नोट" - - 🚧 हमारे बहुभाषी दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कड़ी मेहनत कर रहे हैं। आपकी सहकार्य के लिए आपका धन्यवाद! 🙏 - -## [वस्त्र स्पष्टीकरण डेटासेट (Detection Datasets)](../../datasets/detect/index.md) - -बाउंडिंग बॉक्स ऑब्जेक्ट डिटेक्शन एक कंप्यूटर विज्ञान तकनीक है जिसमें प्रत्येक ऑब्जेक्ट के चारों ओर एक बाउंडिंग बॉक्स बनाकर छवि में ऑब्जेक्ट का पता लगाया जाता है। - -- [Argoverse](../../datasets/detect/argoverse.md): एक डेटासेट जो शहरी वातावरणों से 3D ट्रैकिंग और मोशन फोरेकास्टिंग डेटा को समृद्ध एनोटेशन के साथ स्थानांतरित करता है। -- [COCO](../../datasets/detect/coco.md): एक बड़े पैमाने पर डिज़ाइन किए गए डेटासेट जिसमें ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और कैप्शनिंग के लिए 200K से अधिक लेबल चित्र हैं। -- [COCO8](../../datasets/detect/coco8.md): COCO प्रशिक्षण और COCO मूल्यांकन के पहले 4 छवियां हैं, जो त्वरित परीक्षणों के लिए उपयुक्त हैं। -- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): विश्वव्यापी गेहूँ शिर्ष छवियों का एक डेटासेट, जिसे ऑब्जेक्ट डिटेक्शन और स्थानांतरण कार्यों के लिए ऐच्छिक बनाया गया है। -- [Objects365](../../datasets/detect/objects365.md): ऑब्जेक्ट डिटेक्शन के लिए एक उच्च गुणवत्ता वाला बड़ा-स्केल डेटासेट जिसमें 365 ऑब्जेक्ट श्रेणियाँ और 600K से अधिक एनोटेटेड छवियां हैं। -- [OpenImagesV7](../../datasets/detect/open-images-v7.md): Google द्वारा एक व्यापक डेटासेट, जिसमें 1.7M प्रशिक्षण छवियां और 42k मान्यता छवियां हैं। -- [SKU-110K](../../datasets/detect/sku-110k.md): विपणनीय वातावरणों में घना ऑब्जेक्ट डिटेक्शन के तत्वों के साथ एक डेटासेट, जिसमें 11K छवियां और 1.7 मिलियन बाउंडिंग बॉक्स हैं। -- [VisDrone](../../datasets/detect/visdrone.md): ड्रोन द्वारा पकड़ी गई छवियों से ऑब्जेक्ट डिटेक्शन और बहु-ऑब्जेक्ट ट्रैकिंग डेटा का एक डेटासेट, जिसमें 10K से अधिक छवियां और वीडियो सीक्वेंसेस हैं। -- [VOC](../../datasets/detect/voc.md): Pascal Visual Object Classes (VOC) डेटासेट, जिसमें 20 ऑब्जेक्ट कक्षाएं और 11K से अधिक छवियां हैं, के लिए ऑब्जेक्ट डिटेक्शन और संवर्धन जैसे कार्यों के लिए है। -- [xView](../../datasets/detect/xview.md): ओवरहेड छवियों में ऑब्जेक्ट डिटेक्शन के लिए एक डेटासेट, जिसमें 60 ऑब्जेक्ट श्रेणियां और 1 मिलियन से अधिक एनोटेटेड ऑब्जेक्ट हैं। - -## [संरेखण डेटासेट (Instance Segmentation Datasets)](../../datasets/segment/index.md) - -संरेखण एक कंप्यूटर विज्ञान तकनीक है जिसमें छवि में ऑब्जेक्ट की उपयुक्त स्तर पर पहचान और स्थानांतरण होता है। - -- [COCO](../../datasets/segment/coco.md): ऑब्जेक्ट डिटेक्शन, संरेखण, और कैप्शनिंग के लिए डिज़ाइन किए गए एक बड़े पैमाने पर डेटासेट जिसमें 200K से अधिक लेबल चित्र हैं। -- [COCO8-संरेखण](../../datasets/segment/coco8-seg.md): संरेखण कार्यों के लिए योग्यता युक्त 8 COCO छवियों के एक हल्का डेटासेट जिसमें संरेखण एनोटेशन्स हैं। - -## [पोज आकलन (Pose Estimation)](../../datasets/pose/index.md) - -पोज आकलन एक तकनीक है जिसमें ऑब्जेक्ट की पोज को कैमरे या विश्व संचालन सिद्धांत के मुकाबले आकलित किया जाता है। - -- [COCO](../../datasets/pose/coco.md): पोज आकलन कार्यों के लिए मानव पोज एनोटेशन के साथ एक बड़े पैमाने पर डेटासेट। -- [COCO8-पोज](../../datasets/pose/coco8-pose.md): पोज आकलन कार्यों के लिए योग्यता युक्त 8 COCO छवियों के एक हल्का डेटासेट जिसमें मानव पोज एनोटेशन्स हैं। -- [Tiger-पोज](../../datasets/pose/tiger-pose.md): पोज आकलन कार्यों के लिए 12 कीपॉइंट्स प्रति बाघ के लिए 263 छवियों का एक संक्षिप्त डेटासेट। - -## [वर्गीकरण (Classification)](../../datasets/classify/index.md) - -छवि वर्गीकरण एक कंप्यूटर विज्ञान कार्य है जिसमें एक छवि को उसके विज़ुअल सामग्री के आधार पर एक या एक से अधिक पहले से निर्धारित कक्षाओं या श्रेणियों में वर्गीकृत किया जाता है। - -- [Caltech 101](../../datasets/classify/caltech101.md): 101 ऑब्जेक्ट कक्षाओं की छवियां वर्गीकरण कार्यों के लिए एक डेटासेट। -- [Caltech 256](../../datasets/classify/caltech256.md): 256 ऑब्जेक्ट कक्षाओं के साथ Caltech 101 का विस्तारित संस्करण जिसमें अधिक चुनौतीपूर्ण छवियां हैं। -- [CIFAR-10](../../datasets/classify/cifar10.md): 10 कक्षाओं में 60K 32x32 रंगीन छवियों का डेटासेट, प्रति कक्षा 6K छवियां हैं। -- [CIFAR-100](../../datasets/classify/cifar100.md): 100 ऑब्जेक्ट कक्षाओं के साथ CIFAR-10 का विस्तारित संस्करण जिसमें प्रति कक्षा 600 छवियां हैं। -- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): छवि वर्गीकरण कार्यों के लिए 10 फैशन कक्षाओं के 70,000 सेंधांतरण छवि से बना एक डेटासेट। -- [ImageNet](../../datasets/classify/imagenet.md): ऑब्जेक्ट डिटेक्शन और छवि वर्गीकरण के लिए एक बड़े पैमाने पर डेटासेट, जिसमें 14 मिलियन से अधिक छवियां और 20,000 कक्षाएं हैं। -- [ImageNet-10](../../datasets/classify/imagenet10.md): छवि प्रायोगशाला में त्वरित प्रयोग और परीक्षण के लिए 10 कक्षाओं के ImageNet का एक छोटा संकलन। -- [Imagenette](../../datasets/classify/imagenette.md): त्वरित प्रशिक्षण और परीक्षण के लिए 10 आसानी से पहचाने जाने वाली कक्षाएं वाले ImageNet का एक छोटा संकलन। -- [Imagewoof](../../datasets/classify/imagewoof.md): छवि वर्गीकरण कार्यों के लिए 10 कुत्ते की नस्लों के आकृतियों के साथ ImageNet का एक अधिक चुनौतीपूर्ण संकलन। -- [MNIST](../../datasets/classify/mnist.md): छवि वर्गीकरण कार्यों के लिए हस्तलेखित अंकों के 70,000 सेंधांतरण छवि से बना एक डेटासेट। - -## [उभयार्थित बाउंडिंग बॉक्सेस (Oriented Bounding Boxes, OBB)](../../datasets/obb/index.md) - -उभयार्थित बाउंडिंग बॉक्सेस (OBB) एक कंप्यूटर विज्ञान में एक तरीका है जिसमें घुमे हुए बाउंडिंग बॉक्स का उपयोग करके छवियों में एंगल हुए ऑब्जेक्ट्स का पता लगाया जाता है, जो अक्सर आवक और उपग्रह प्रतिमाओं पर लागू होता है। - -- [DOTAv2](../../datasets/obb/dota-v2.md): एक लोकप्रिय OBB आकाशीय छवि डेटासेट जिसमें 1.7 मिलियन आइंस्टेंसेज और 11,268 छवियां हैं। - -## [बहु-ऑब्जेक्ट ट्रैकिंग (Multi-Object Tracking)](../../datasets/track/index.md) - -बहु-ऑब्जेक्ट ट्रैकिंग एक कंप्यूटर विज्ञान तकनीक है जिसमें वीडियो सिक्वेंस में वक्त के साथ एक से अधिक ऑब्जेक्ट्स का पता लगाने और ट्रैक करने का शामिल है। - -- [Argoverse](../../datasets/detect/argoverse.md): उच्च शहरी वातावरणों से 3D ट्रैकिंग और मोशन फोरेकास्टिंग डेटा के साथ रिच एनोटेशन के लिए एक डेटासेट। -- [VisDrone](../../datasets/detect/visdrone.md): ड्रोन-पकड़ी छवियों से ऑब्जेक्ट डिटेक्शन और बहु-ऑब्जेक्ट ट्रैकिंग डेटा का एक डेटासेट जिसमें 10K से अधिक छवियां और वीडियो सीक्वेंसेस हैं। - -## नई डेटासेट का योगदान दें - -नई डेटासेट का योगदान देना मौजूदा ढांचे के स्थानांतरण के साथ समर्थित होने के लिए कई चरणों का पालन करने की आवश्यकता होती है। नीचे दिए गए मानक कदम हैं: - -### नई डेटासेट के योगदान के चरण - -1. **छवियों का संग्रह करें**: - डेटासेट में शामिल होने वाली छवियों का संग्रह करें। इन्हें पब्लिक डेटाबेस से या अपने संग्रह से इकट्ठा किया जा सकता है। - -2. **छवि एनोटेशन करें**: - इन छवियों को बाउंडिंग बॉक्स, संरेखण या कीपॉइंट्स के साथ थस्क करें, टास्क के आधार पर। - -3. **एनोटेशन निर्यात करें**: - इन एनोटेशन को योलो `*.txt` फ़ाइल प्रारूप में निर्यात करें, जिसे Ultralytics समर्थित करता है। - -4. **डेटासेट व्यवस्थित करें**: - अपने डेटासेट को सही फ़ोल्डर संरचना में व्यवस्थित करें। आपके पास `train/` और `val/` शीर्ष-स्तर निर्देशिकाएँ होनी चाहिए, और हर एक में `images/` और `labels/` उप-निर्देशिका होनी चाहिए। - - ``` - dataset/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **एक `data.yaml` फ़ाइल बनाएं**: - अपने डेटासेट के रूट निर्देशिका में, डेटासेट, कक्षाएँ, और अन्य आवश्यक जानकारी का वर्णन करने वाली `data.yaml` फ़ाइल बनाएं। - -6. **छवियों को अवधित करें (वैकल्पिक)**: - यदि आप प्रभावी प्रसंस्करण के लिए डेटासेट का आकार कम करना चाहते हैं, तो आप निम्नलिखित कोड का उपयोग करके छवियों को अवधित कर सकते हैं। यह अनिवार्य नहीं है, लेकिन छोटा डेटासेट आकार और तेज डाउनलोड की गति के लिए सिफारिश की जाती है। - -7. **डेटासेट को ज़िप करें**: - पूरे डेटासेट फ़ोल्डर को एक ज़िप फ़ाइल में संपीड़ित करें। - -8. **दस्तावेज़ीकरण और पीआर**: अपने डेटासेट के बारे में एक दस्तावेज़ीकरण पेज बनाएं और उसके बारे में समर्थन करने वाली मौजूदा संरचना में कैसे समाविष्ट करें इसका वर्णन करें । उसके बाद, एक पुल अनुरोध (PR) सबमिट करें। पीआर जमा करने के लिए अधिक विवरण के लिए [उल्ट्रालिटिक्स योगदान दिशानिर्देशिका](https://docs.ultralytics.com/help/contributing) देखें। - -### डेटासेट को अवधित करने और ज़िप करने के लिए उदाहरण कोड - -!!! Example "डेटासेट को अवधित करने और ज़िप करने के लिए उदाहरण कोड" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # डेटासेट निर्देशिका को परिभाषित करें - path = Path('path/to/dataset') - - # डेटासेट में छवि अवधित करें (वैकल्पिक) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # डेटासेट को 'path/to/dataset.zip' में ज़िप करें - zip_directory(path) - ``` - -इन कदमों का पालन करके, आप अपने डेटासेट का योगदान प्रदान कर सकते हैं जो Ultralytics के मौजूदा संरचना के अच्छी तरह से समाविष्ट होता है। diff --git a/docs/hi/index.md b/docs/hi/index.md deleted file mode 100644 index bb6ce5c519a..00000000000 --- a/docs/hi/index.md +++ /dev/null @@ -1,84 +0,0 @@ ---- -comments: true -description: Ultralytics YOLOv8 के पूर्ण गाइड को जानें, एक उच्च गति, उच्च योग्यता वाले वस्तु का पता लगाने और छवि विभाजन मॉडल। स्थापना, भविष्यवाणी, प्रशिक्षण ट्यूटोरियल और बहुत कुछ। -keywords: Ultralytics, YOLOv8, वस्तु पता लगाना, छवि विभाजन, मशीन लर्निंग, गहरी लर्निंग, कंप्यूटर विज़न, YOLOv8 स्थापना, YOLOv8 भविष्यवाणी, YOLOv8 प्रशिक्षण, YOLO इतिहास, YOLO लाइसेंसेस ---- - -
-

- - Ultralytics YOLO banner -

- Ultralytics GitHub - space - Ultralytics LinkedIn - space - Ultralytics Twitter - space - Ultralytics YouTube - space - Ultralytics TikTok - space - Ultralytics Instagram - space - Ultralytics Discord -
-
- Ultralytics CI - Ultralytics Code Coverage - YOLOv8 Citation - Docker Pulls - Discord -
- Run on Gradient - Open In Colab - Open In Kaggle -
- - -पेश करते हैं [युल्ट्रालिटिक्स](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics), प्रसिद्ध वास्तविक समय वस्तु पता लगाने और छवि विभाजन मॉडल की नवीनतम संस्करण। YOLOv8 गहरी लर्निंग और कंप्यूटर विज़न में कटिंग-एज उन्नति पर आधारित है, इसलिए गति और योग्यता के मामले में इसका प्रदर्शन अद्वितीय है। इसका संक्षेपित डिज़ाइन इसे विभिन्न अनुप्रयोगों के लिए उपयुक्त बनाता है और विभिन्न हार्डवेयर प्लेटफ़ॉर्म्स पर आसानी से अनुकूल बनाता है, शुरू और धारण के लिए िजोग्य करता है। - -YOLOv8 डॉक्स का अन्वेषण करें, यह एक व्यापक स्रोत है जो आपको इसके सुविधाओं और क्षमताओं को समझने और उपयोग करने में मदद करने के लिए विकसित किया गया है। चाहे आप एक अनुभवी मशीन लर्निंग प्रैक्टीशनर हो या क्षेत्र में नये हों, इस हब का उद्देश्य आपके परियोजनाओं में YOLOv8 की क्षमताओं को अधिकतम करना है। - -!!! Note "नोट" - - 🚧 हमारी बहुभाषी दस्तावेजीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। आपकी सहायता के लिए धन्यवाद! 🙏 - -## शुरुआत कहाँ से करें - -- **Install** `pip` के साथ `ultralytics` स्थापित करें और कुछ मिनट में चलता हुआ पाएं   [:material-clock-fast: शुरू हो जाओ](quickstart.md){ .md-button } -- **Predict** यूनिक images और videos को YOLOv8 के साथ   [:octicons-image-16: छवियों पर भविष्यवाणी करें](modes/predict.md){ .md-button } -- **Train** अपने खुद के custom डेटासेट पर एक नया YOLOv8 मॉडल   [:fontawesome-solid-brain: मॉडल प्रशिक्षित करें](modes/train.md){ .md-button } -- **अन्वेषण** करें YOLOv8 tasks जैसे कि विभाजित, वर्गीकृत, स्थिति और ट्रैक करें   [:material-magnify-expand: टास्क्स अन्वेषण करें](tasks/index.md){ .md-button } - -

-
- -
- देखें: अपने कस्टम डेटासेट पर YOLOv8 मॉडल को कैसे ट्रेन करें Google Colab में। -

- -## YOLO: एक संक्षिप्त इतिहास - -[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once), एक लोकप्रिय वस्तु पता लगाने और छवि विभाजन मॉडल, यूनिवर्सिटी ऑफ वाशिंगटन में Joseph Redmon और Ali Farhadi द्वारा विकसित किया गया था। YOLO की उच्च गति और योग्यता के कारण, यह 2015 में तेजी से प्रसिद्ध हुआ। - -- [YOLOv2](https://arxiv.org/abs/1612.08242), 2016 में जारी किया गया, मूल मॉडल में batch normalization, anchor boxes और dimension clusters शामिल करके मॉडल में सुधार किया। -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), 2018 में लॉन्च किया गया, एक अधिक प्रभावी बैकबोन नेटवर्क, एंकर बॉक्सेस और स्थानिक पिरामिड पूलिंग के उपयोग से मॉडल की प्रदर्शन को और बढ़ाया। -- [YOLOv4](https://arxiv.org/abs/2004.10934) 2020 में जारी किया गया, Mosaic डेटा वृद्धि, एक नया anchor-free डिटेक्शन हेड और एक नया लॉस फ़ंक्शन के जैसे नवाचार द्वारा मॉडल को बेहतर बनाया गया। -- [YOLOv5](https://github.com/ultralytics/yolov5) मॉडल की प्रदर्शन को और बेहतर बनाने के साथ, हाइपरपैरामीटर ऑप्टिमाइज़ेशन, एकीकृत प्रयोग ट्रैकिंग और लोकप्रिय export formats में स्वचालित निर्यात जैसे नए सुविधाएं जोड़ी गईं। -- [YOLOv6](https://github.com/meituan/YOLOv6) 2022 में [मेटुआन](https://about.meituan.com/) द्वारा ओपन-सोस्ड किया गया था और कई कम्पनी के स्वतंत्र वितरण रोबोट में उपयोग में है। -- [YOLOv7](https://github.com/WongKinYiu/yolov7) ने COCO keypoints डेटासेट पर पोज अनुमान जैसे अतिरिक्त टास्क जोड़ दिया। -- [YOLOv8](https://github.com/ultralytics/ultralytics) Ultralytics द्वारा YOLO का नवीनतम संस्करण है। एक तलवार की काट, आपातता मॉडल के सफलता पर निर्मितकर्ताओं की मेहनत की चटानों पर निर्माण करके YOLOv8 ने पिछले संस्करणों की सफलता पर आधारित, नई सुविधाएं और सुधार अद्यतित प्रदर्शन, लचीलापन और प्रदार्थता के लिए प्रस्तुत किए हैं। YOLOv8 विजन AI tasks, जैसे [पता लगाना](tasks/detect.md), [विभाजन](tasks/segment.md), [पोज अनुमान](tasks/pose.md), [ट्रैकिंग](modes/track.md), और [वर्गीकरण](tasks/classify.md) का पूरा समर्थन करता है। यह विविध अनुप्रयोग और क्षेत्रों में योलोवी8 की क्षमताओं का उपयोग करने की अनुमति देता है। - -YOLO लाइसेंसेस: Ultralytics YOLO का प्रयोग कैसे होता है? - -Ultralytics विभिन्न उपयोग मामलों को समर्थित करने के लिए दो लाइसेंसिंग विकल्प प्रदान करता है: - -- **AGPL-3.0 लाइसेंस**: यह [OSI स्वीकृत](https://opensource.org/licenses/) ओपन-सोर्स लाइसेंस छात्रों और उत्साहीयों के लिए उपयुक्त है, गहन सहयोग और ज्ञान साझा करने के लिए प्रोत्साहित करता है। अधिक जानकारी के लिए [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) फ़ाइल देखें। -- **व्यवसायिक लाइसेंस**: व्यावसायिक उपयोग के लिए डिज़ाइन किया गया, यह लाइसेंस Ultralytics सॉफ़्टवेयर और AI मॉडल को वाणिज्यिक माल और सेवाओं में सरलतापूर्वक सम्मिलित करने की अनुमति देता है, AGPL-3.0 की ओपन-सोर्स आवश्यकताओं को छोड़ता है। यदि आपके परिदृश्य में हमारे समाधानों को एक वाणिज्यिक प्रस्ताव में एम्बेड करना शामिल है, [Ultralytics Licensing](https://ultralytics.com/license) के माध्यम से संपर्क करें। - -हमारी लाइसेंसिंग रणनीति इस सुनिश्चित करने के लिए है कि हमारे ओपन-सोर्स परियोजनाओं में किए गए कोई भी सुधार समुदाय को लौटाए जाएं। हम ओपन सोर्स के सिद्धांतों को अपने दिल के पास रखते हैं ❤️, और हमारा मिशन यह सुनिश्चित करना है कि हमारे योगदानों का उपयोग और विस्तार किए जाने के तरीकों में क्रियान्वयन किए जाएं जो सभी के लिए लाभदायक हों। diff --git a/docs/hi/models/fast-sam.md b/docs/hi/models/fast-sam.md deleted file mode 100644 index 4dc714f78e6..00000000000 --- a/docs/hi/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: FastSAM एक सीएनएन पर आधारित समाधान है जो छवियों में वास्तविक समय ऑब्जेक्ट सेगमेंटेशन के लिए बनाया गया है। यह यूजर इंटरेक्शन, संगणनीय प्रभावशीलता और विजन कार्यों को अनुकूलित करने में सक्षम है। -keywords: FastSAM, machine learning, CNN-based solution, object segmentation, वास्तविक समय का समाधान, Ultralytics, विजन कार्य, छवि प्रोसेसिंग, उद्योगिक अनुप्रयोग, यूजर इंटरैक्शन ---- - -# Fast Segment Anything Model (FastSAM) - -फास्ट सेगमेंट एनीथिंग मॉडल (फास्टएसएएम) एक नवीन, वास्तविक समय में कार्यरत सीएनएन पर आधारित समाधान है जो एनीथिंग टास्क को सेगमेंट करने के लिए बनाया गया है। इस टास्क का उद्देश्य विभिन्न संभावित उपयोक्ता इंटरेक्शन प्रोम्प्ट्स पर आधारित छवियों में किसी भी ऑब्जेक्ट को सेगमेंट करना है। फास्टएसएएम ने संगणनात्मक मांग को कम करते हुए मुकाबले क्षमता को बरकरार रखते हुए संगणकीय मांगों को काफी कम किया है, जिसके कारण यह विभिन्न विजन कार्यों के लिए एक व्यावहारिक विकल्प बनाता है। - -![फास्ट सेगमेंट एनीथिंग मॉडल (फास्टएसएएम) आर्किटेक्चर इंट्रो](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## अवलोकन - -FastSAM, [सेगमेंट एनीथिंग मॉडल (एसएएम)](sam.md) की सीमाओं का सामना करने के लिए बनाया गया है, जो एक भारी ट्रांसफॉर्मर मॉडल है और उचित संसाधन आवश्यकताओं को है। फास्टएसएएम ने सार्वभौमिक चरणों में सेगमेंट एनीथिंग टास्क को अलग-अलग दो साँप्रदायिक चरणों में अलग किया है: सभी इंस्टेंस सेगमेंटेशन और प्रॉम्प्ट-गाइडेड चयन। पहले चरण में, यह [व्योलोवी8-सेग](../tasks/segment.md) का उपयोग करके छवि में सभी इंस्टेंस की सेगमेंटेशन मास्क उत्पन्न करता है। दूसरे चरण में, यह प्रोम्प्ट के बराबर क्षेत्र-ऑफ-इंटरेस्ट को आउटपुट करता है। - -## प्रमुख सुविधाएं - -1. **वास्तविक समय का समाधान:** सीएनएन की संगणनात्मक प्रभावशीलता का उपयोग करके, फास्टएसएएम एनीथिंग टास्क के लिए वास्तविक समय समाधान प्रदान करता है, जिससे यह उद्योगिक अनुप्रयोगों के लिए महत्वपूर्ण परिणामों की आवश्यकता होती है। - -2. **प्रदार्थी और प्रदर्शन क्षमता:** फास्टएसएएम संगणनात्मक और संसाधन मांग में काफी कमी प्रदान करता है बिना प्रदर्शन गुणवत्ता पर कुछ बदले के। यह संसाधनों की बहुत अधिक कमी के साथ एसएएम के लगभग तुलनात्मक प्रदर्शन प्राप्त करता है, जिससे वास्तविक समय अनुप्रयोग संभव होता है। - -3. **प्रोम्प्ट-गाइडेड सेगमेंटेशन:** फास्टएसएएम कई संभावित उपयोक्ता इंटरेक्शन प्रोम्प्ट्स द्वारा निर्दिष्ट छवि में किसी भी ऑब्जेक्ट को सेगमेंट कर सकता है, जो विभिन्न परिस्थितियों में लचीलापूर्णता और अनुकूलन प्रदान करता है। - -4. **व्योलोवी8-सेग पर आधारित:** फास्टएसएएम [व्योलोवी8-सेग](../tasks/segment.md) पर आधारित है, जो एक ऑब्जेक्ट डिटेक्टर है जिसमें एक इंस्टेंस सेगमेंटेशन टास्क है। इससे यह संभव होता है कि यह छवि में सभी इंस्टेंस की सेगमेंटेशन मास्क प्रभावी ढंग से उत्पन्न करें। - -5. **बेंचमार्क पर प्रतिस्पर्धी परिणाम:** MS COCO पर ऑब्जेक्ट प्रासलन टास्क पर, फास्टएसएएम एकल NVIDIA RTX 3090 पर [एसएएम](sam.md) की तुलना में काफी तेज गति में उच्च अंक प्राप्त करता है, जो इसकी प्रभावशीलता और क्षमता को दिखाता है। - -6. **वास्तविक अनुप्रयोग:** प्रस्तावित दृष्टांत एक नए, वास्तविक समय में कई विजन कार्यों के लिए एक नया, व्यावहारिक समाधान प्रदान करता है, जिसमें मौजूदा विधियों से कई या सौ गुना तेज तरीके से किया जाता है। - -7. **मॉडल संक्षिप्ति क्षमता:** फास्टएसएएम ने प्रवेशी अभिकरण के लिए एक कृत्रिम प्राथमिकता को संरचना में परिचय कराने के द्वारा कंप्यूटेशनल प्रयास को काफी कम करने की संभावना दिखाई है, इस प्रकार सामान्य विजन कार्यों के लिए बड़े मॉडल आर्किटेक्चर के लिए नए संभावनाओं को खोलती है। - -## उपलब्ध मॉडल, समर्थित कार्य और ऑपरेटिंग मोड - -इस सारणी में उपलब्ध मॉडल, उनके विशिष्ट पूर्व-प्रशिक्षित वेट और उनके समर्थनित कार्यों को पेश किया गया है, साथ ही उनकी विभिन्न ऑपरेटिंग मोड के साथ संगतता को दर्शाने के लिए समर्थित मोजी में ✅ इमोज़ी और असमर्थित मोजी में ❌ इमोज़ी लगाए गए हैं। - -| मॉडल प्रकार | पूर्व-प्रशिक्षित वेट्स | समर्थित कार्य | भावना | मान्यीकरण | प्रशिक्षण | निर्यात | -|-----------------|------------------------|--------------------------------------------|-------|-----------|-----------|---------| -| फास्टएसएएम-एस | `FastSAM-s.pt` | [इंस्टेंस सेगमेंटेशन](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| फास्टएसएएम-एक्स | `FastSAM-x.pt` | [इंस्टेंस सेगमेंटेशन](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## उपयोग के उदाहरण - -फास्टएसएएम मॉडल को अपने पायथन ऐप्लिकेशन में आसानी से एकीकृत करना आसान है। उल्ट्राल्याटिक्स उपयोगकर्ता-मित्रपूर्ण पायथन API और CLI कमांड्स प्रदान करता है ताकि विकास को सरल बनाया जा सके। - -### पूर्वानुमान उपयोग - -एक छवि पर ऑब्जेक्ट डिटेक्शन करने के लिए, नीचे दिए गए उदाहरण का उपयोग करें: - -!!! Example "उदाहरण" - - === "पायथन" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # एक inference source निर्धारित करें - source = 'path/to/bus.jpg' - - # एक फास्टएसएएम मॉडल बनाएं - model = FastSAM('FastSAM-s.pt') # या FastSAM-x.pt - - # छवि पर inference चलाएं - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # प्रोम्प्ट प्रक्रिया वस्तु को तैयार करें - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # सब कुछ प्रोम्प्ट - ann = prompt_process.everything_prompt() - - # बॉक्स डिफ़ॉल्टवत आकार [0,0,0,0] -> [x1,y1,x2,y2] - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # पाठ प्रोम्प्ट - ann = prompt_process.text_prompt(text='a photo of a dog') - - # पॉइंट प्रोम्प्ट - # डिफ़ॉल्ट point [[0,0]] [[x1,y1],[x2,y2]] - # डिफ़ॉल्ट point_label [0] [1,0] 0:background, 1:foreground - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # शीघ्रदर्शन मॉडल को लोड करें और उसे कुछ वस्तुओं के साथ सेगमेंट करें - yolo segment predict model=FastSAM-s.pt source=path/to/bus.jpg imgsz=640 - ``` - -यह स्निपेट प्रशिक्षित मॉडल को लोड करने और एक इमेज पर प्रभासिती का निर्धारण करने की सरलता का दिखावा करता है। - -### वैल उपयोग - -एक डेटासेट पर मॉडल की मान्यीकरण करने के लिए निम्नलिखित तरीके का उपयोग किया जा सकता है: - -!!! Example "उदाहरण" - - === "पायथन" - ```python - from ultralytics import FastSAM - - # एक फास्टएसएएम मॉडल बनाएं - model = FastSAM('FastSAM-s.pt') # या FastSAM-x.pt - - # मॉडल को मान्यित करें - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # शीघ्रदर्शन मॉडल को लोड करें और इसे साइज़ 640 पर COCO8 उदाहरण डेटासेट पर मान्यित करें - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -कृपया ध्यान दें कि फास्टएसएएम केवल एकल वस्तु कार और सेगमेंटेशन का समर्थन करता है। इसका मतलब है कि यह सभी ऑब्जेक्टों को एक ही वर्ग के रूप में मान्यता देगा और सभी ऑब्जेक्ट्स को एक ही वर्ग के रूप में सेगमेंट करेगा। इसलिए, डेटासेट को तैयार करते समय, आपको सभी ऑब्जेक्ट श्रेणी आईडी को 0 में रूपांतरित करने की आवश्यकता होगी। - -## फास्टएसएएम आधिकारिक उपयोग - -फास्टएसएएम को [https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM) रिपॉजिटरी से सीधे भी उपयोग किया जा सकता है। यहां आपको फास्टएसएएम का उपयोग करने के लिए आमतौर पर लिए जाने वाले कदमों का संक्षेपिक अवलोकन है: - -### स्थापना - -1. फास्टएसएएम रिपॉजिटरी क्लोन करें: - ```शेल - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. पायथन 3.9 के साथ एक रुपे में संचालित करने के लिए एक Conda वातावरण बनाएं और सक्रिय करें: - ```शेल - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. क्लोन किए गए रिपॉजिटरी में जाएं और आवश्यक पैकेजों को स्थापित करें: - ```शेल - cd FastSAM - pip install -r requirements.txt - ``` - -4. CLIP मॉडल स्थापित करें: - ```शेल - pip install git+https://github.com/openai/CLIP.git - ``` - -### उदाहरण उपयोग - -1. [मॉडल चेकपॉइंट](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing)डाउनलोड करें। - -2. FastSAM का उपयोग करके इंफरेंस करें। उदाहरण कमांड: - - - छवि में सब कुछ सेगमेंट करें: - ```शेल - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - पाठ प्रोम्प्ट का उपयोग करके विशेष ऑब्जेक्ट सेगमेंट करें: - ```शेल - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "the yellow dog" - ``` - - - एक बाउंडिंग बॉक्स के भीतर बाउंडर ऑब्जेक्ट को सेगमेंट करें (xywh स्वरूप में बॉक्स की कोणयों की निर्धारण करें): - ```शेल - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - विशेष बिंदुओं के पास ऑब्जेक्ट को सेगमेंट करें: - ```शेल - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -इसके अलावा, आप फास्टएसएएम का उपयोग करने के लिए एक [कोलैब डेमो](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing) या एक [हगिंगफेस वेब डेमो](https://huggingface.co/spaces/An-619/FastSAM) पर भी प्रयास कर सकते हैं। - -## उद्धृति और प्रशंसापत्र - -हम वास्तविक समय आवंटन संबंधी क्षेत्र में महत्वपूर्ण योगदान देने के लिए फास्टएसएएम लेखकों को प्रशंसा करते हैं: - -!!! Quote "" - - === "बिबटेक्स्ट" - - ```बिबटेक्स्ट - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -[FastSAM](https://arxiv.org/abs/2306.12156) पेपर आरएक्सिव में मौजूद है। लेखकों ने अपना काम सार्वजनिक रूप से उपलब्ध कराया है, और कोडबेस [गिटहब](https://github.com/CASIA-IVA-Lab/FastSAM) पर उपलब्ध है। हम इन दोनों के प्रयासों की कीमत करते हैं और उनके प्रयास के लिए धन्यवाद देते हैं जो क्षेत्र को आगे बढ़ाने और अपने काम को व्यापक समुदाय के लिए उपलब्ध कराने में समर्थ हैं। diff --git a/docs/hi/models/index.md b/docs/hi/models/index.md deleted file mode 100644 index 3ac9539127c..00000000000 --- a/docs/hi/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Ultralytics द्वारा समर्थित YOLO परिवार की विविध रेंज, SAM, MobileSAM, FastSAM, YOLO-NAS, और RT-DETR मॉडल्स का पता लगाएं। CLI और Python उपयोग के लिए उदाहरणों के साथ प्रारंभ करें। -keywords: Ultralytics, दस्तावेज़ीकरण, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, मॉडल्स, आर्किटेक्चर्स, Python, CLI ---- - -# Ultralytics द्वारा समर्थित मॉडल - -Ultralytics के मॉडल दस्तावेज़ीकरण में आपका स्वागत है! हम [ऑब्जेक्ट डिटेक्शन](../tasks/detect.md), [इंस्टेंस सेगमेंटेशन](../tasks/segment.md), [इमेज क्लासिफिकेशन](../tasks/classify.md), [पोज़ एस्टिमेशन](../tasks/pose.md), और [मल्टी-ऑब्जेक्ट ट्रैकिंग](../modes/track.md) जैसे विशिष्ट कामों के लिए डिज़ाइन किए गए मॉडलों की एक विस्तृत रेंज का समर्थन प्रदान करते हैं। यदि आप Ultralytics में अपने मॉडल आर्किटेक्चर को योगदान देने में रुचि रखते हैं, तो हमारा [Contributing Guide](../../help/contributing.md) देखें। - -!!! Note "ध्यान दें" - - 🚧 हमारी अलग-अलग भाषाओं में दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कठिन परिश्रम कर रहे हैं। धैर्य रखने के लिए धन्यवाद! 🙏 - -## प्रमुख मॉडल - -यहां कुछ मुख्य मॉडल दिए गए हैं: - -1. **[YOLOv3](yolov3.md)**: YOLO मॉडल परिवार का तीसरा संस्करण, जिसे जोसेफ रेडमोन द्वारा बनाया गया है, जो इसकी कुशल रियल-टाइम ऑब्जेक्ट डिटेक्शन क्षमताओं के लिए जाना जाता है। -2. **[YOLOv4](yolov4.md)**: YOLOv3 को अपडेट करने वाला एक डार्कनेट-नेटिव, जिसे 2020 में एलेक्सी बोचकोवस्की द्वारा जारी किया गया। -3. **[YOLOv5](yolov5.md)**: उल्ट्रालाइटिक्स द्वारा बेहतर YOLO आर्किटेक्चर का एक सुधारित संस्करण, जो पिछले संस्करणों की तुलना में बेहतर प्रदर्शन और गति की समझौता की पेशकश करता है। -4. **[YOLOv6](yolov6.md)**: 2022 में [Meituan](https://about.meituan.com/) द्वारा जारी किया गया, और कंपनी के कई स्वायत्त डिलीवरी रोबोट्स में उपयोग में। -5. **[YOLOv7](yolov7.md)**: 2022 में YOLOv4 के लेखकों द्वारा जारी किया गया अपडेटेड YOLO मॉडल। -6. **[YOLOv8](yolov8.md) नया 🚀**: YOLO परिवार का नवीनतम संस्करण, जिसमें इंस्टेंस सेगमेंटेशन, पोज/कीपॉइंट्स अनुमान, और क्लासिफिकेशन जैसी उन्नत क्षमताएं शामिल हैं। -7. **[Segment Anything Model (SAM)](sam.md)**: मेटा के Segment Anything Model (SAM)। -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**: मोबाइल एप्लिकेशनों के लिए MobileSAM, क्युंग ही यूनिवर्सिटी द्वारा। -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**: चीनी विज्ञान अकादमी, ऑटोमेशन संस्थान के इमेज & वीडियो एनालिसिस ग्रुप द्वारा FastSAM। -10. **[YOLO-NAS](yolo-nas.md)**: YOLO न्यूरल आर्किटेक्चर सर्च (NAS) मॉडल्स। -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)**: बैदु के पडलपैडल Realtime Detection Transformer (RT-DETR) मॉडल। - -

-
- -
- देखें: कुछ लाइनों के कोड में Ultralytics YOLO मॉडल्स को चलाएं। -

- -## प्रारंभ करना: उपयोग उदाहरण - -यह उदाहरण योलो प्रशिक्षण और अनुमान के सरल उदाहरण प्रदान करता है। इन और अन्य [modes](../modes/index.md) के पूर्ण दस्तावेज़ीकरण के लिए [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) और [Export](../modes/export.md) दस्तावेज़ों के पन्नों को देखें। - -नीचे दिया गया उदाहरण YOLOv8 [Detect](../tasks/detect.md) मॉडल्स के लिए है, जो ऑब्जेक्ट डिटेक्शन के लिए हैं। अतिरिक्त समर्थित कार्यों के लिए [Segment](../tasks/segment.md), [Classify](../tasks/classify.md) और [Pose](../tasks/pose.md) दस्तावेज़ों को देखें। - -!!! Example "उदाहरण" - - === "Python" - - पायथन में मॉडल बनाने के लिए PyTorch प्रीट्रेन्ड '*.pt' मॉडल्स के साथ-साथ कॉन्फ़िगरेशन '*.yaml' फ़ाइलों को `YOLO()`, `SAM()`, `NAS()` और `RTDETR()` क्लासेज़ में पास किया जा सकता है: - - ```python - from ultralytics import YOLO - - # COCO-प्रीट्रेन्ड YOLOv8n मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # मॉडल की जानकारी दिखाएँ (वैकल्पिक) - model.info() - - # COCO8 उदाहरण डेटासेट पर 100 एपोक्स के लिए मॉडल प्रशिक्षित करें - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg' इमेज पर YOLOv8n मॉडल के साथ अनुमान चलाएँ - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI कमांड्स उपलब्ध हैं जो सीधे मॉडल्स को चलाने के लिए हैं: - - ```bash - # COCO-प्रीट्रेन्ड YOLOv8n मॉडल को लोड करें और COCO8 उदाहरण डेटासेट पर 100 एपोक्स के लिए प्रशिक्षित करें - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO-प्रीट्रेन्ड YOLOv8n मॉडल को लोड करें और 'bus.jpg' इमेज पर अनुमान चलाएँ - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## नए मॉडल्स का योगदान - -आप Ultralytics में अपने मॉडल का योगदान देने के इच्छुक हैं? बहुत बढ़िया! हम हमेशा अपने मॉडल पोर्टफोलियो का विस्तार करने के लिए खुले हैं। - -1. **रिपॉजिटरी फोर्क करें**: [Ultralytics GitHub रिपॉजिटरी](https://github.com/ultralytics/ultralytics) को फोर्क करके शुरू करें। - -2. **अपने फोर्क को क्लोन करें**: अपने फोर्क को अपनी लोकल मशीन पर क्लोन करें और काम करने के लिए एक नई ब्रांच बनाएं। - -3. **अपना मॉडल लागू करें**: हमारे [Contributing Guide](../../help/contributing.md) में दिए गए कोडिंग स्टैंडर्ड्स और दिशानिर्देशों का अनुसरण करते हुए अपने मॉडल को जोड़ें। - -4. **गहराई से परीक्षण करें**: अपने मॉडल का परीक्षण अलग से और पाइपलाइन के हिस्से के रूप में किया जा सकता है। - -5. **पुल रिक्वेस्ट बनाएं**: एक बार जब आप अपने मॉडल से संतुष्ट हो जाएं, तो समीक्षा के लिए मुख्य रिपॉजिटरी को एक पुल रिक्वेस्ट बनाएं। - -6. **कोड समीक्षा और मिलान**: समीक्षा के बाद, यदि आपका मॉडल हमारे मानदंडों को पूरा करता है, तो इसे मुख्य रिपॉजिटरी में मिला दिया जाएगा। - -विस्तृत चरणों के लिए हमारा [Contributing Guide](../../help/contributing.md) देखें। diff --git a/docs/hi/models/mobile-sam.md b/docs/hi/models/mobile-sam.md deleted file mode 100644 index ea9da4a4b4e..00000000000 --- a/docs/hi/models/mobile-sam.md +++ /dev/null @@ -1,115 +0,0 @@ ---- -comments: true -description: Ultralytics मार्गदर्शिका में MobileSAM के बारे में और उसके प्रायोगशाला तुलनात्मक विवेचन, मूल SAM के साथ तुलना और इसे Ultralytics ढांचे में डाउनलोड और परीक्षण कैसे करें। अपने मोबाइल ऐप्लिकेशन को बेहतर बनाएं। -keywords: MobileSAM, Ultralytics, SAM, मोबाइल ऐप्लिकेशन, Arxiv, GPU, API, छवि एनकोडर, मास्क डिकोडर, मॉडल डाउनलोड, परीक्षण पद्धति ---- - -![MobileSAM लोगो](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# मोबाइल सेगमेंट कुछ भी (MobileSAM) - -मोबाइलSAM पेपर [arXiv](https://arxiv.org/pdf/2306.14289.pdf) पर अब उपलब्ध है। - -MobileSAM के संचालन का एक प्रदर्शन कम्प्यूटर पर पहुंचा जा सकता है उस [डेमो लिंक](https://huggingface.co/spaces/dhkim2810/MobileSAM) के माध्यम से। Mac i5 CPU पर प्रदर्शन करने में लगभग 3 सेकंड का समय लगता है। हगिंग फेस डेमो परिवेश और कम प्रदर्शन वाले सीपियू ने प्रतिक्रिया को धीमी किया है, लेकिन यह अभी भी प्रभावी ढंग से काम करता है। - -मोबाइलSAM [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything), [AnyLabeling](https://github.com/vietanhdev/anylabeling), और [Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D) सहित विभिन्न परियोजनाओं में लागू है। - -मोबाइलSAM एक एकल GPU पर 100k डेटासेट (मूल छवि का 1%) के साथ प्रशिक्षित होता है और इसमें एक दिन से कम समय लगता है। इस प्रशिक्षण के लिए कोड भविष्य में उपलब्ध कराया जाएगा। - -## उपलब्ध मॉडल, समर्थित कार्य और ऑपरेटिंग मोड - -इस तालिका में उपलब्ध मॉडल, उनके विशिष्ट पूर्व-प्रशिक्षित वजन, वे कार्य जिन्हें वे समर्थन करते हैं, और उनका अभिन्नतम संगतता के साथ विभिन्न ऑपरेटिंग मोड (इंफरेंस, वैधानिकी, प्रशिक्षण, और निर्यात) प्रदर्शित किए गए हैं, जिन्हें समर्थित मोड के लिए ✅ emoji और असमर्थित मोड के लिए ❌ emoji से दर्शाया गया है। - -| मॉडल प्रकार | पूर्व-प्रशिक्षित वजन | समर्थित कार्य | इंफरेंस | वैधानिकी | प्रशिक्षण | निर्यात | -|-------------|----------------------|--------------------------------------------|---------|----------|-----------|---------| -| MobileSAM | `mobile_sam.pt` | [इंस्टेंस सेगमेंटेशन](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## SAM से MobileSAM में अनुकूलन - -MobileSAM मूल SAM की तरफ से समान पाइपलाइन बरकरार रखता है, हमने मूल की प्री-प्रोसेसिंग, पोस्ट-प्रोसेसिंग और सभी अन्य इंटरफेसों को सम्मिलित कर दिया है। इसलिए, वर्तमान में मूल SAM का उपयोग करने वाले लोग मिनिमल प्रयास के साथ MobileSAM में ट्रांसिशन कर सकते हैं। - -MobileSAM मूल SAM के समान पाइपलाइन में उत्तम प्रदर्शन करता है और केवल छवि एन्कोडर में परिवर्तन होता है। विशेष रूप से, हम मूल भारीवज्ञानिक ViT-H एन्कोडर (632M) को एक छोटे Tiny-ViT (5M) से बदलते हैं। एकल GPU पर MobileSAM लगभग 12ms प्रति छवि पर ऑपरेट करता है: 8ms छवि एन्कोडर पर और 4ms मास्क डिकोडर पर। - -विट-आधारित इमेज एन्कोडरों की तुलना नीचे दी गई तालिका प्रदान करती है: - -| छवि एन्कोडर | मूल SAM | MobileSAM | -|-------------|---------|-----------| -| पैरामीटर्स | 611M | 5M | -| स्पीड | 452ms | 8ms | - -मूल SAM और MobileSAM दोनों में समान प्रॉम्प्ट गाइडेड मास्क डिकोडर का उपयोग किया गया है: - -| मास्क डिकोडर | मूल SAM | MobileSAM | -|--------------|---------|-----------| -| पैरामीटर्स | 3.876M | 3.876M | -| स्पीड | 4ms | 4ms | - -यहां पाइपलाइन की तुलना है: - -| पूरा पाइपलाइन (एन्कोडर+डिकोडर) | मूल SAM | MobileSAM | -|--------------------------------|---------|-----------| -| पैरामीटर्स | 615M | 9.66M | -| स्पीड | 456ms | 12ms | - -MobileSAM और मूल SAM के प्रदर्शन को एक बिन्दु और बॉक्स के रूप में प्रदर्शित किया जाता है। - -![बिन्दु के रूप में छवि](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![बॉक्स के रूप में छवि](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -बेहतर प्रदर्शन से MobileSAM मौजूदा FastSAM की तुलना में लगभग 5 गुना छोटा और 7 गुना तेज है। अधिक विवरण [MobileSAM प्रोजेक्ट पेज](https://github.com/ChaoningZhang/MobileSAM) पर उपलब्ध हैं। - -## Ultralytics में MobileSAM का परीक्षण - -मूल SAM की तरह ही, हम Ultralytics में एक सीधा परीक्षण विधि प्रदान करते हैं, जिसमें बिंदु और बॉक्स प्रॉम्प्ट्स दोनों के लिए मोड शामिल हैं। - -### मॉडल डाउनलोड - -आप यहां से मॉडल डाउनलोड कर सकते हैं [here](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt)। - -### बिंदु प्रॉम्प्ट - -!!! Example "उदाहरण" - - === "Python" - ```python - from ultralytics import SAM - - # मॉडल लोड करें - model = SAM('mobile_sam.pt') - - # बिंदु प्रॉम्प्ट पर आधारित एक सेगमेंट पूर्वानुमान करें - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### बॉक्स प्रॉम्प्ट - -!!! Example "उदाहरण" - - === "Python" - ```python - from ultralytics import SAM - - # मॉडल लोड करें - model = SAM('mobile_sam.pt') - - # बॉक्स प्रॉम्प्ट पर आधारित एक सेगमेंट पूर्वानुमान करें - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -हमने `MobileSAM` और `SAM` दोनों को एक ही API का उपयोग करके इम्प्लिमेंट किया है। अधिक उपयोग जानकारी के लिए, कृपया [SAM पेज](sam.md) देखें। - -## संदर्भ और आभार - -अगर आप अपने अनुसंधान या विकास कार्य में MobileSAM का उपयोगयोगी पाते हैं, तो कृपया हमारे पेपर को साइट करने का विचार करें: - -!!! Quote "" -=== "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/hi/models/rtdetr.md b/docs/hi/models/rtdetr.md deleted file mode 100644 index addb8fcf095..00000000000 --- a/docs/hi/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: Baidu के RT-DETR का अवलोकन करें: विज़न ट्रांसफॉर्मर के द्वारा संचालित, उन्नत और अनुकूलनयोग्य वास्तविक समय ऑब्जेक्ट डिटेक्टर, जिसमें तैयार मॉडल शामिल हैं। -keywords: RT-DETR, Baidu, विज़न ट्रांसफॉर्मर्स, ऑब्जेक्ट डिटेक्शन, वास्तविक समय प्रदर्शन, CUDA, TensorRT, IoU-जागरूक क्वेरी चयन, Ultralytics, पायथन एपीआई, PaddlePaddle ---- - -# Baidu के RT-DETR: एक विज़न ट्रांसफॉर्मर के आधार पर वास्तविक समय ऑब्जेक्ट डिटेक्टर - -## अवलोकन - -Baidu द्वारा विकसित रियल-टाइम डिटेक्शन ट्रांसफॉर्मर (RT-DETR) एक उन्नत, end-to-end ऑब्जेक्ट डिटेक्टर है जो उच्च नि: शुल्कता बनाए रखते हुए वास्तविक समय प्रदर्शन प्रदान करता है। यह Vision ट्रांसफॉर्मर्स (ViT) की शक्ति का उपयोग करके बहुस्तरीय सुविधाओं की कुशलतापूर्वक प्रोसेसिंग करता है और इंट्रा-स्केल इंटरेक्शन और क्रॉस-स्केल फ्यूजन को अलग करके विभिन्न मापों की सुविधा प्रदान करता है। RT-DETR अत्यधिक अनुकूलनयोग्य है, जिसमें ब्यावसायिक लिंग के विभिन्न डिकोडर लेयर का उपयोग करके उपन्यासात्मक गति को समायोजित करने की समर्थन की गई है बिना पुनर्प्रशिक्षण के। इस मॉडल का परिणामस्वरूप, जो कि CUDA और TensorRT के समर्थनयुक्त बैकेंड पर अच्छा क्रियाशील ऑब्जैक्ट डिटेक्टरों से अधिक प्रदर्शन करता है। - -![आदर्श छवि](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**Baidu के RT-DETR का अवलोकन।** RT-DETR मॉडल आर्किटेक्चर आवचेदक जैसे आखिरी तीन स्टेज {S3, S4, S5} को इंपुट टू एन्कोडर के रूप में दर्शाता है। कटिहरण योग्य हाइब्रिड एन्कोडर अंत: धारण विशिष्टताओं को Ekत्रित और इंत्राक्ष स्थलीय लक्षण (AIFI) और क्रॉस-स्केल लक्षण-संघटन मॉड्यूल (CCFM) द्वारा चित्र विशेषण में परिवर्तित करता है। IoU-जागरूक क्वेरी चयन का उपयोग आदर्श छवि चयन के लिए निर्धारित संख्या के चित्र विशेषताओं को कवल वस्त्रण स्वरूप में चयनित करने के लिए किया जाता है। अंत में, डिकोडर सहायक पूर्वानुमान मुद्दा किसी विशेष छवि को उपयुक्त ऑब्जेक्ट क्वेरी के रूप में आरम्भ करने के लिए संशोधित किया जाता है जिसके अंत में बॉक्स और विश्वास स्कोर पैदा किया जाता है ([स्रोत](https://arxiv.org/pdf/2304.08069.pdf))। - -### मुख्य विशेषताएँ - -- **कटिहरण योग्य हाइब्रिड एन्कोडर:** Baidu के RT-DETR ने इंत्रा-स्केल इंटरेक्शन और क्रॉस-स्केल फ्यूजन को अलग करके बहुस्तरीय विशेषताओं को प्रोसेस करने के लिए एक कटिहरण योग्य हाइब्रिड एन्कोडर का उपयोग किया है। यह अद्वितीय विज़न ट्रांसफॉर्मर से आधिक हिमांशीय लागत को कम करता है और वास्तविक समय ऑब्जेक्ट डिटेक्शन की अनुमति देता है। -- **IoU-जागरूक क्वेरी चयन:** Baidu के RT-DETR ने IoU-जागरूक क्वेरी चयन का उपयोग करके आदर्श छवि चयन को सुधारा है। इससे मॉडल द्वारा सीन में सबसे प्रासंगिक ऑब्जेक्ट पर केन्द्रित किया जा सकता है, जिससे डिटेक्शन की निशाना स्पष्टता में सुधार होती है। -- **अनुकूलनयोग्य अनुमान प्रदान:** Baidu के RT-DETR ने पुनर्प्रशिक्षण के आवश्यकता के बिना भिन्न डिकोडर लेयर का उपयोग करके अनुमान की गति की मान्यता में सुविधाएं समर्थित की हैं। यह अनुकूलनयोग्यता वास्तविक समय ऑब्जेक्ट डिटेक्शन स्थितियों में व्यावहारिक लागू करने की सहायता करती है। - -## प्री-तारकित मॉडल - -Ultralytics Python API विभिन्न स्केलों के साथ प्री-तारकित PaddlePaddle RT-DETR मॉडल प्रदान करता है: - -- RT-DETR-L: COCO val2017 पर 53.0% AP, T4 GPU पर 114 FPS -- RT-DETR-X: COCO val2017 पर 54.8% AP, T4 GPU पर 74 FPS - -## उपयोग उदाहरण - -यह उदाहरण सरल RT-DETRR प्रशिक्षण और संदर्भ उदाहरण प्रदान करता है। पूरे दस्तावेज़ीकरण के लिए इन और अन्य [modes](../modes/index.md) पर देखें: [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) और [Export](../modes/export.md) दस्तावेज़ पृष्ठों। - -!!! Example "उदाहरण" - - === "पायथन" - - ```python - from ultralytics import RTDETR - - # COCO-प्री-तारकित RT-DETR-l मॉडल लोड करें - model = RTDETR('rtdetr-l.pt') - - # मॉडल जानकारी प्रदर्शित करें (वैकल्पिक) - model.info() - - # COCO8 उदाहरण डेटासेट पर मॉडल को 100 एपिसोड के लिए प्रशिक्षित करें - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # RT-DETR-l मॉडल के साथ 'bus.jpg' छवि पर संदर्भ चलाएं - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # COCO-प्री-तारकित RT-DETR-l मॉडल को लोड करें और उसे COCO8 उदाहरण डेटासेट पर 100 एपिसोड के लिए प्रशिक्षित करें - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO-प्री-तारकित RT-DETR-l मॉडल को लोड करें और 'bus.jpg' छवि पर संदर्भ चलाएं - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## समर्थित कार्य और मोड - -इस तालिका में मॉडल प्रकार, विशेष प्री-तारकित भार, हर मॉडल द्वारा समर्थित कार्य, और [Train](../modes/train.md) , [Val](../modes/val.md), [Predict](../modes/predict.md), [Export](../modes/export.md) इत्यादि जैसे विभिन्न मोड्स विभाजित की गई हैं, ✅ इमोजियों द्वारा संकेतित हैं - -| मॉडल प्रकार | प्री-तारकित भार | समर्थित कार्य | संदर्भ | मान्यता | प्रशिक्षण | निर्यात | -|---------------------|-----------------|-----------------------------------------|--------|---------|-----------|---------| -| RT-DETR Large | `rtdetr-l.pt` | [ऑब्जेक्ट डिटेक्शन](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR Extra-Large | `rtdetr-x.pt` | [ऑब्जेक्ट डिटेक्शन](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## प्रशंसापत्र और आभार - -यदि आप अपने शोध या विकास कार्य में Baidu के RT-DETR का उपयोग करते हैं, कृपया [मूल पेपर](https://arxiv.org/abs/2304.08069) को उद्धृत करें: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -हम Baidu और [PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection) टीम को आभार प्रकट करना चाहेंगे जिन्होंने बिल्कुल लोक-दृष्टि समुदाय के लिए इस योग्य संसाधन को बनाने और संभालने का कार्य किया है। विज़न ट्रांसफॉर्मर्स-आधारित वास्तविक समय ऑब्जेक्ट डिटेक्टर RT-DETR के विकास के साथ उनके योगदान को बड़ा रूप से स्वीकार किया जाता है। - -*Keywords: RT-DETR, ट्रांसफॉर्मर, ViT, विज़न ट्रांसफॉर्मर्स, Baidu RT-DETR, PaddlePaddle, PaddlePaddle RT-DETR, वास्तविक समय ऑब्जेक्ट डिटेक्शन, विज़न ट्रांसफॉर्मर्स आधारित ऑब्जेक्ट डिटेक्शन, प्री-तारकित PaddlePaddle RT-DETR मॉडल, Baidu के RT-DETR का उपयोग, Ultralytics Python API* diff --git a/docs/hi/models/sam.md b/docs/hi/models/sam.md deleted file mode 100644 index 805717873fe..00000000000 --- a/docs/hi/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: Ultralytics के Segment Anything Model (SAM) की अभिनव सेगमेंटेशन मॉडल का पता लगाएं जो रीयल-टाइम छवि सेगमेंटेशन की अनुमति देता है। समझें कि इसमें promptable सेगमेंटेशन, zero-shot प्रदर्शन शामिल है और यह कैसे उपयोग किया जाता है। -keywords: Ultralytics, Image segmentation, Segment Anything Model, SAM, SA-1B डेटासेट, रीयल-टाइम प्रदर्शन, zero-shot ट्रांसफर, वस्तु पहचानन, छवि विश्लेषण, मशीन लर्निंग ---- - -# Segment Anything Model (SAM) - -Segment Anything Model (SAM), यानी वस्तु को के सिलसीलेबंद छवि सेगमेंटेशन के पहले खंड "SAM"में आपका स्वागत है। यह क्रांतिकारी मॉडल समयबद्ध प्रदर्शन के साथ promptable छवि सेगमेंटेशन द्वारा खेल को बदल चुका है और क्षेत्र में नई मानकों को स्थापित किए हैं। - -## SAM: Segment Anything Model का परिचय - -Segment Anything Model (SAM), यानी SAM, एक अभिनव छवि सेगमेंटेशन मॉडल है जो promptable सेगमेंटेशन की अनुमति देता है, जिससे छवि विश्लेषण कार्यों में अविश्वसनीय विविधता प्राप्त होती है। SAM, Segment Anything पहल के दिल में आता है, जो छवि सेगमेंटेशन के लिए नई मॉडल, कार्य और डेटासेट का परिचय कराता है। - -SAM का उन्नत डिजाइन इसे नई छवि वितरणों और कार्यों के लिए पूर्वज्ञान के बिना सामायिक होने देता है, जिसे जीरो-शॉट ट्रांसफर के नाम से जाना जाता है। विस्तारशील [SA-1B डेटासेट](https://ai.facebook.com/datasets/segment-anything/) पर (जिसमें 1 अरब से अधिक मास्क हैं जो 11 मिलियन सावधानीपूर्वक इच्छीत छवियों पर बिखेरे गए हैं), SAM ने वास्तव में दिखाया है कि यह बेहद श्रेष्ठ जीरो-शॉट प्रदर्शन का anomaly-detection करने वाले पहले परिणामों को हर हाल में छू सकता है। - -![सैंपल डेटासेट छवि](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -हमारे नई पेशकश डेटासेट, SA-1B से दिए गए ओवरले मास्क वाली उदाहरण छवियाँ। SA-1B में 11M विविध, उच्च-रिजोल्यूशन, लाइसेंस और प्राइवेसी संरक्षण योग्य छवियाँ और 1.1B उच्च-गुणवत्ता वाले सेगमेंटेशन मास्क मौजूद हैं। इन मास्क को SAM द्वारा पूर्णतः स्वचालित रूप से टिप्पणी की गई हैं, और मानवीय रेटिंग और अनेक अभ्यासों से सत्यापित हुए अनुसार, इनकी गुणवत्ता और विविधता प्रमुख हैं। छवियों की संख्या के आधार पर छवियाँ समूहित की गई हैं (औसतन प्रति छवि पर लगभग 100 मास्क होती हैं)। - -## Segment Anything Model (SAM) की मुख्य विशेषताएं - -- **Promptable Segmentation Task:** SAM का निर्माण promptable सेगमेंटेशन कार्य के साथ किया गया है, जिसके बाद वह कोई भी प्रोम्प्ट देकर मान्य सेगमेंटेशन मास्क उत्पन्न कर सकता है, जैसे कि वस्तु का निर्देश करने वाले स्थानिक या पाठ संकेत। -- **उन्नत वास्तविकता:** Segment Anything Model में एक शक्तिशाली छवि इनकोडर, प्रोम्प्ट इनकोडर, और हल्की वजन के मास्क डीकोडर की बाईं लगाम लगातार बदलाव और अस्पष्टता की जागरूकता पर आधारित होती है। यह विशेष आर्किटेक्चर प्रारंभिक जोखिम ज्ञान के बिना नए क्षेत्रों और छवि वितरणों के लिए सुविधाजनक होने की अनुमति देता है। -- **SA-1B डेटासेट:** SAM पहल के द्वारा प्रस्तुत किए गए SA-1B डेटासेट में 11 मिलियन छवियों पर 1 अरब से अधिक मास्क होती हैं। इसे अब तक का सबसे बड़ा सेगमेंटेशन डेटासेट माना जाता है, जिससे SAM को विविधतापूर्ण और बड़े पैमाने पर भड़ास ट्रेनिंग डेटा स्रोत प्राप्त होता है। -- **जीरो-शॉट प्रदर्शन:** SAM विभिन्न सेगमेंटेशन कार्यों में उत्कृष्ट जीरो-शॉट प्रदर्शन प्रदर्शित करता है, जिससे यह विविध अनुप्रयोगों के लिए तत्परता के आवश्यकता के साथ तत्परता के यन्त्रियों के लिए तत्परता के यंत्रों के लिए तत्पर करने योग्य एक तत्परता यंत्र बन गया है। - -Segment Anything Model और SA-1B डेटासेट की गहन जानकारी के लिए, कृपया [Segment Anything वेबसाइट](https://segment-anything.com) पर जाएं और शोध पेपर [Segment Anything](https://arxiv.org/abs/2304.02643) की जाँच करें। - -## उपलब्ध मॉडल, समर्थित कार्य और संचालनिक विधियाँ - -यह तालिका उपलब्ध मॉडल, उनकी विशेष पूर्व-प्रशिक्षित वेट, उनके समर्थित कार्य और इंफरेंस, मान्यीकरण, प्रशिक्षण और निर्यात जैसे विभिन्न संचालित विधियों के साथ उनकी संबद्धता का प्रस्ताव प्रस्तुत करती है. - -| मॉडल प्रकार | पूर्व-प्रशिक्षित वेट | समर्थित कार्य | Inference | Validation | Training | Export | -|-------------|----------------------|---------------------|-----------|------------|----------|--------| -| SAM बेस | `sam_b.pt` | इंस्टेंस सेगमेंटेशन | ✅ | ❌ | ❌ | ✅ | -| SAM लार्ज | `sam_l.pt` | इंस्टेंस सेगमेंटेशन | ✅ | ❌ | ❌ | ✅ | - -## SAM का उपयोग कैसे करें: छवि सेगमेंटेशन में यथार्थता और शक्ति - -Segment Anything Model का उपयोग उपस्थित डेटा से आगे के कार्यों के लिए किया जा सकता है। इसमें एज डिटेक्शन, निवेदन प्रस्ताव उत्पादन, इंस्टेंस सेगमेंटेशन, और प्राथमिक पाठ-तो-मास्क पूर्वानुमान शामिल हैं। प्रोम्प्ट इंजीनियरिंग के साथ, SAM नए कार्यों और डेटा वितरणों के लिए जीरो-शॉट तरीके में शीघ्र रूप से अनुकूलित हो सकता है, जिससे यह आपकी सभी छवि सेगमेंटेशन आवश्यकताओं के लिए एक सुगम और प्रभावी उपकरण बन जाता है। - -### SAM पूर्वानुमान उदाहरण - -!!! Example "निर्दिष्ट प्रप्ति के साथ सेगमेंट तय करें" - - निर्दिष्ट प्रप्ति के साथ चित्रीय भविष्यवाणी करें। - - === "टख्ती" - - ```python - from ultralytics import SAM - - # एक मॉडल लोड करें - model = SAM('sam_b.pt') - - # मॉडल सूचना प्रदर्शित करें (वैकल्पिक) - model.info() - - # बॉक्स प्रम्प्ट के साथ इनफ़रन्स चलाएं - model('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # बिंदु प्रम्प्ट के साथ इनफ़रन्स चलाएं - model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "सब कुछ सेगमेंट करें" - - पूरी छवि को सेगमेंट करें। - - === "टख्ती" - - ```python - from ultralytics import SAM - - # एक मॉडल लोड करें - model = SAM('sam_b.pt') - - # मॉडल सूचना प्रदर्शित करें (वैकल्पिक) - model.info() - - # इनफ़रेंस चलाएं - model('पथ/फ़ाइल/सदृश छवि.जेपीजी') - ``` - - === "CLI" - - ```बैश - # सब कुछ SEKैग के साथ SAM मॉडल के साथ इनफ़रन्स चलाएं - yolo predict model=sam_b.pt source=पथ/फ़ाइल/सदृश छवि.जेपीजी - ``` - -- यहां यह तर्क है कि आप प्रोम्प्ट (बॉक्स / पॉइंट / मास्क) पास नहीं करते हैं तो पूरी छवि को सेगमेंट करें। - -!!! Example "SAMPredictor उदाहरण" - - इस तरह से आप एक बार छवि सेट कर सकते हैं और बार-बार प्रोम्प्ट इन्फ़रेंस चला सकते हैं। छवि को बार बार इन्कोडर के मध्य में नहीं चलाने के लिए। - - === "प्रोम्प्ट भविष्यवाणी करना" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # SAMPredictor बनाएं - overrides = dict(conf=0.25, task='कटा', mode='पूर्वानुमान', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # चित्र सेट करें - predictor.set_image("ultralytics/assets/zidane.jpg") # चित्र फ़ाइल के साथ सेट करें - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # एनपी. एस. एन. द्वारा सेट करें - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # चित्र रीसेट करें - predictor.reset_image() - ``` - - अतिरिक्त तत्वों के साथ सब कुछ को टुकड़ों में विभाजित करें। - - === "सब कुछ का सेगमेंट" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # SAMPredictor बनाएं - overrides = dict(conf=0.25, task='सेगमेंट', mode='पूर्वानुमान', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # अतिरिक्त तत्वों के साथ सेगमेंट - results = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- `सब कुछ का सेगमेंट` के लिए अतिरिक्त तत्वों के लिए अधिक देखें [`Predictor/generate` Reference](../../../reference/models/sam/predict.md). - -## SAM की तुलना YOLOv8 के बनाम - -यहां हम SAM के सबसे छोटे मॉडल, SAM-b, की तुलना Ultralytics के सबसे छोटे सेगमेंट मॉडल, [YOLOv8n-seg](../tasks/segment.md), के साथ करते हैं: - -| मॉडल | आकार | पैरामीटर | गति (सीपीयू) | -|--------------------------------------------------------------------|-----------------------------|----------------------|-------------------------| -| SAM का सबसे छोटा, SAM-b | 358 MB | 94.7 M | 51096 ms/im | -| [मोबाइल SAM](mobile-sam.md) | 40.7 MB | 10.1 M | 46122 ms/im | -| [अग्री सेगमेंटेशन वाली FastSAM-s, YOLOv8 बैकबोन सहित](fast-sam.md) | 23.7 MB | 11.8 M | 115 ms/im | -| Ultralytics [योलोवी8न-seg](yolov8.md) | **6.7 MB** (53.4 गुना छोटा) | **3.4 M** (27.9x कम) | **59 ms/im** (866x तेज) | - -यह तुलना मॉडल के आकार और गति में दस्तावेजीय अंतर दिखाती है। जहां SAM स्वचालित सेगमेंटेशन के लिए अद्वितीय क्षमताओं को प्रस्तुत करता है, वहीं Ultralytics विद्यमान सेगमेंटेशन मानदंडों के तुलनात्मक आकार, गति और संचालन क्षमता में समर्थन प्रदान करती है। - -एक 2023 Apple M2 Macbook (16GB रैम के साथ) पर चलाई गई परीक्षा। इस परीक्षण को दोहराने के लिए: - -!!! Example "उदाहरण" - - === "Python" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # SAM-b प्रोफाइल करें - model = SAM('sam_b.pt') - model.info() - model('ultralytics/assets') - - # मोबाइलSAM प्रोफाइल करें - model = SAM('mobile_sam.pt') - model.info() - model('ultralytics/assets') - - # FastSAM-s प्रोफाइल करें - model = FastSAM('FastSAM-s.pt') - model.info() - model('ultralytics/assets') - - # YOLOv8n-seg प्रोफाइल करें - model = YOLO('yolov8n-seg.pt') - model.info() - model('ultralytics/assets') - ``` - -## स्वत: टिपण्णीकरण: सेगमेंटेशन डेटासेट के लिए एक त्वरित मार्ग - -स्वत: टिपण्णीकरण SAM की एक मुख्य सुविधा है जो उपयोगकर्ताओं को एक पूर्व-प्रशिक्षित डिटेक्शन मॉडल का उपयोग करके [सेगमेंटेशन डेटासेट](https://docs.ultralytics.com/datasets/segment) उत्पन्न करने की अनुमति देती है। यह सुविधा बड़ी संख्या में छवियों को क्वालिटी कंट्रोल से आनोत करने की जरूरत के दौरान समयरोकी मूल्य अंकन की जरूरत छोड़ती है। - -### अपने सेगमेंटेशन डेटासेट के उपयोग के लिए गतिशीलता निर्मित करें - -Ultralytics फ़्रेमवर्क के साथ स्‍वस्‍थ दिखाई देने वाले वर्गानुसार [सेगमेंटेशन डेटासेट](https://docs.ultralytics.com/datasets/segment) बनाएं। एपनी में दिए गए आदेश का उपयोग करके। - -!!! Example "उदाहरण" - - === "Python" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="पथ/सामग्री", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| तत्व | प्रकार | विवरण | डिफ़ॉल्ट | -|------------|-------------------|--------------------------------------------------------------------------------------------------------------------------------------------|--------------| -| डेटा | str | अनुमानित मूल छवियाँ जो आंशिक प्रतिसादान के लिए अनुमानित हैं। | | -| det_model | str, वैकल्पिक | पूर्व-प्रशिक्षित YOLO डिटेक्शन मॉडल। 'yolov8x.pt' डिफ़ॉल्ट रूप से होता है। | 'yolov8x.pt' | -| sam_model | str, वैकल्पिक | पूर्व-प्रशिक्षित SAM सेगमेंटेशन मॉडल। डिफ़ॉल्ट रूप से 'sam_b.pt' है। | 'sam_b.pt' | -| device | str, वैकल्पिक | मॉडल को चलाने के लिए डिवाइस। डिफ़ॉल्ट रूप से एक खाली स्ट्रिंग होता है (सीपीयू या जीपीयू, यदि उपलब्ध है)। | | -| output_dir | str, कोई वैकल्पिक | टिपण्णीत परिणाम सहेजने के लिए निर्देशिका। इसे 'डेटा' के समान डिरेक्टरी में "निर्देशिकाएं" निर्दिष्ट करने के लिए डिफ़ॉल्ट मान नहीं होता है। | कोई | - -`ऑटो_तिपण्णी` फ़ंक्शन आपकी छवियों के लिए यातायात का कार्यक्रम देखती है और सेगमेंटेशन सेट को आपके छवि के पथ सेट करती है, वैकल्पिक तत्वों के लिए पूर्व-प्रशिक्षित डिटेक्शन और SAM सेगमेंटेशन मॉडल, मॉडल को चलाने के लिए डिवाइस और टिपण्णीत परिणाम सहेजने के लिए निर्देशिका जैसे, इन कार्यक्रम तत्वों का उपयोग करते हुए। - -पूर्व-प्रशिक्षित मॉडल के साथ स्वत: टिपण्णीकरण छवि एनोटेशन एक बड़े पैमाने पर सेगमेंटेशन डेटासेट बनाने के लिए प्रायोगिक और ऊर्जावान उपकारण है। यह सुविधा विशेष रूप से उस समय सुरेखितह रेखांकीकरण के लिए समय-शीघ्रता द्वारा तय कार्यों के साथ, उच्च गुणवत्ता वाले सेगमेंटेशन डेटासेट बनाने के लिए अधिक जरूरी होता है। इस सुविधा का उद्देश्यसिद्ध उपयोगकर्ताओं और डेवलपर्स के लिए विद्यमान छवि संग्रहों के साथ जटिल सूक्ष्म मॉडल विकास और मान्यानुयोग का महत्वपूर्ण विकल्प प्रदान करती है। - -## प्रशंसा और आभार - -यदि आप अपने शोध या विकास के लिए SAM का उपयोगकर्ता करते हैं, तो कृपया हमारे पेपर को उदाहरणित करने को विचार करें: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -हम कंप्यूटर विज्ञान समुदाय के लिए इस मूल्यवान संसाधन को निर्मित और बनाए रखने के लिए तारीफ करना चाहेंगे। - -*संकेत: Segment Anything, Segment Anything Model, समुद्री, Meta SAM, छवि सेगमेंटेशन, promptable सेगमेंटेशन, zero-shot प्रदर्शन, SA-1B डेटा सेट, उन्नत आर्किटेक्चर, स्वत: टिपण्णीकरण, Ultralytics, पूर्व-प्रशिक्षित मॉडलें, SAM बेस, SAM-लार्ज, इंस्टेंस सेगमेंटेशन, कंप्यूटर विज्ञान, AI, artificial intelligence, machine learning, data annotation, segmentation masks, डिटेक्शन मॉडल, YOLO डिटेक्शन मॉडल, bibtex, Meta AI. diff --git a/docs/hi/models/yolo-nas.md b/docs/hi/models/yolo-nas.md deleted file mode 100644 index 483b85e3b26..00000000000 --- a/docs/hi/models/yolo-nas.md +++ /dev/null @@ -1,119 +0,0 @@ ---- -comments: true -description: YOLO-NAS एक बेहतर वस्तु पहचान मॉडल है। इसकी विशेषताएँ, प्री-प्रशित मॉडल, Ultralytics Python API के साथ उपयोग और अधिक के बारे में विस्तृत दस्तावेज़ीकरण जानें। -keywords: YOLO-NAS, Deci AI, object detection, deep learning, neural architecture search, Ultralytics Python API, YOLO model, pre-trained models, quantization, optimization, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## अवलोकन - -डेसी एआई द्वारा विकसित YOLO-NAS एक महत्वपूर्ण वस्तु पहचान मूलभूत मॉडल है। यह पिछले YOLO मॉडलों की सीमाओं का समाधान करने के लिए मानकर्मशास्त्रीय संरचना खोज प्रौद्योगिकी का उत्पाद है। क्वांटाइज़ेशन समर्थन और सटीकता-लेटेंसी विनिमय में काफी सुधार के साथ, YOLO-NAS वस्तु पहचान में एक महत्वपूर्ण आगे की लड़ाई प्रस्तुत करता है। - -![मॉडल उदाहरण छवि](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**YOLO-NAS का अवलोकन।** YOLO-NAS आपेक्षिकता के लिए ब्लॉक्स और वैकल्पिक क्वांटाइज़ेशन के साथ क्वांटाइज़ेशन योग्य ब्लॉक का उपयोग करता है। मॉडल को INT8 क्वांटाइज़ेशन में रूपांतरित किया जाने पर, अन्य मॉडलों की तुलना में केवल थोड़ी सी सटीकता नुकसान होती है। ये उन्नति सभी विकसित विशेषताओं द्वारा योग्यतापूर्वक वस्तु पहचान क्षमताओं और अद्वितीय प्रदर्शन में समाप्त होती है। - -### मुख्य विशेषताएँ - -- **क्वांटाइज़ेशन-मित्रशील मूल ब्लॉक:** YOLO-NAS पिछले YOLO मॉडलों की एक महत्वपूर्ण सीमा को समाप्त करने के लिए एक नया मूल ब्लॉक पेश करता है। -- **सुरुचिपूर्वक प्रशिक्षण और क्वांटाइज़ेशन:** YOLO-NAS उन्नत प्रशिक्षण योजनाएं और पोस्ट-प्रशिक्षण क्वांटाइज़ेशन का उपयोग करता है ताकि प्रदर्शन में सुधार हो सके। -- **ऑटोएनएसी अनुकूलन और प्री-प्रशित:** YOLO-NAS ऑटोएनएसी अनुकूलन का उपयोग करता है और COCO, Objects365 और Roboflow 100 जैसे प्रमुख डेटासेटों पर प्री-प्रशित होता है। यह प्री-प्रशित इसे उत्पादन वातावरण में नीचे पड़ने वाले वस्तु पहचान कार्यों के लिए अत्यंत उपयुक्त बनाता है। - -## प्री-प्रशित मॉडल - -Ultralytics द्वारा प्रदान की गई प्री-प्रशित YOLO-NAS मॉडल के साथ आगामी पीढ़ी की वस्तु पहचान की शक्ति का अनुभव करें। ये मॉडल स्पीड और सटीकता दोनों में उत्कृष्ट प्रदर्शन करने के लिए डिज़ाइन किए गए हैं। अपनी विशिष्ट आवश्यकताओं के लिए विभिन्न विकल्पों में से चुनें: - -| मॉडल | mAP | लेटेंसी (मिलीसेकंड) | -|------------------|-------|---------------------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -प्रत्येक मॉडल वेरिएंट mAP और लेटेंसी के बीच संतुलन का प्रस्ताव करने के लिए डिज़ाइन किए गए हैं, जो आपके वस्तु पहचान कार्यों को प्रदर्शन और गति दोनों के लिए आपकी आवश्यकताओं के लिए अनुकूलित करने में मदद करेगा। - -## उपयोग उदाहरण - -Ultralytics ने YOLO-NAS मॉडलों को आपके Python ऐप्लिकेशन में आसानी से एकीकृत करने के लिए हमारे `ultralytics` पाइथन पैकेज के माध्यम से सुविधाजनक पायथन API प्रदान किया है। पैकेज प्रक्रिया को सुगठित करने के लिए एक उपयोगकर्ता-मित्रपूर्ण पाइथन API प्रदान करता है। - -निम्न उदाहरण दिखाते हैं कि `उल्ट्रालिटिक्स` पैकेज के साथ YOLO-NAS मॉडलों का उपयोग `ultralytics` पैकेज के साथ कैसे करें: - -### पहचान और मान्यता उदाहरण - -इस उदाहरण में हम COCO8 डेटासेट पर YOLO-NAS-s की मान्यता करते हैं। - -!!! Example "उदाहरण" - - इस उदाहरण में हम YOLO-NAS के लिए सरल पहचान और मान्यता कोड प्रदान करते हैं। पहचान परिणामों का हैंडलिंग करने के लिए देखें [भविष्यवाणी](../modes/predict.md) मोड को। अतिरिक्त मोड के साथ YOLO-NAS का उपयोग करने के लिए [मान्यता](../modes/val.md) और [निर्यात](../modes/export.md) को देखें। `उल्ट्रालिटिक्स` पैकेज पर YOLO-NAS का प्रशिक्षण समर्थन नहीं करती है। - - === "Python" - - PyTorch प्री-प्रशित `*.pt` मॉडल फ़ाइलों को उल्ट्रालिटिक्स क्लास 'नास()' को पास किया जा सकता है ताकि पायथन में एक मॉडल मामला बनाया जा सके: - - ```python - from ultralytics import NAS - - # COCO-pretrained YOLO-NAS-s मॉडल लोड करें - model = NAS('yolo_nas_s.pt') - - # मॉडल की जानकारी दिखाएँ (वैकल्पिक) - model.info() - - # COCO8 उदाहरण डेटासेट पर मॉडल की मान्यता करें - results = model.val(data='coco8.yaml') - - # 'bus.jpg' छवि पर YOLO-NAS-s मॉडल के साथ पहचान चलाएं - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - मॉडलों को सीधे चलाने के लिए CLI कमांड उपलब्ध हैं: - - ```bash - # COCO-pretrained YOLO-NAS-s मॉडल लोड करें और उसकी प्रदर्शन मान्यता करें COCO8 उदाहरण डेटासेट पर - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # COCO-pretrained YOLO-NAS-s मॉडल लोड करें और 'bus.jpg' छवि पर पहचान चलाएं - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## समर्थित कार्य और मोड - -हम तीन YOLO-NAS मॉडल वेरिएंट प्रदान करते हैं: छोटा (s), मध्यम (m) और बड़ा (l)। प्रत्येक वेरिएंट विभिन्न कंप्यूटेशनल और प्रदर्शन आवश्यकताओं के लिए डिज़ाइन किए गए हैं: - -- **YOLO-NAS-s**: कम्प्यूटेशन संसाधन सीमित होते हैं लेकिन दक्षता महत्वपूर्ण हैं, ऐसे वातावरणों के लिए अनुकूलित। -- **YOLO-NAS-m**: एक संतुलित दृष्टिकोण प्रदान करता है, जिससे आपके पास उच्च सटीकता वाले सामान्य-उद्देश्य वस्तु पहचान के लिए उपयुक्तता होती है। -- **YOLO-NAS-l**: सबसे अधिक सटीकता की आवश्यकता होने वाले स्थितियों के लिए विशेष रूप से तैयार किया जाता है, जहां गणना संसाधनों की कम बाधा होती है। - -नीचे प्रत्येक मॉडल के बारे में एक विस्तृत अवलोकन दिया गया है, जिसमें उनकी प्री-प्रशित वेट, ये कार्य समर्थित करते हैं, और इनकी आपरेटिंग मोड के साथ उनका संगतता शामिल है। - -| मॉडल प्रकार | प्री-प्रशित वेट | समर्थित कार्य | पहचान | मान्यता | प्रशिक्षण | निर्यात | -|-------------|-----------------------------------------------------------------------------------------------|-----------------------------------|-------|---------|-----------|---------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [वस्तु पहचान](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [वस्तु पहचान](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [वस्तु पहचान](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## उद्धरण और प्रशंसापत्र - -यदि आप अपने शोध या विकास कार्य में YOLO-NAS का उपयोग करते हैं, कृपया SuperGradients को उद्धरण दें: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -हम Deci AI के [SuperGradients](https://github.com/Deci-AI/super-gradients/) टीम के प्रयासों के लिए आभार प्रकट करते हैं जिन्होंने इस महत्वपूर्ण संसाधन को बनाने और बनाए रखने के लिए। हम मानते हैं कि YOLO-NAS, अपने नवाचारी श्रेणीबद्ध संरचना और उत्कृष्ट वस्तु पहचान क्षमताओं के साथ एक महत्वपूर्ण उपकरण बनेगा जिसे उद्यमियों और शोधकर्ताओं के लिए आवश्यक साधन बना रखा जाएगा। diff --git a/docs/hi/models/yolov3.md b/docs/hi/models/yolov3.md deleted file mode 100644 index bc9ca875d3c..00000000000 --- a/docs/hi/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: YOLOv3, YOLOv3-Ultralytics और YOLOv3u के बारे में जानें। इनकी प्रमुख विशेषताएँ, उपयोग और वस्तु डिटेक्शन के लिए समर्थित कार्यों की जानकारी प्राप्त करें। -keywords: YOLOv3, YOLOv3-Ultralytics, YOLOv3u, वस्तु डिटेक्शन, इनफेरेन्स, प्रशिक्षण, Ultralytics ---- - -# YOLOv3, YOLOv3-Ultralytics, और YOLOv3u - -## सवाल - -ये प्रदर्शनी में तीन प्रमुख वस्तु डिटेक्शन मॉडलों, यानी [YOLOv3](https://pjreddie.com/darknet/yolo/), [YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3) और [YOLOv3u](https://github.com/ultralytics/ultralytics), की एक अवलोकन प्रस्तुत करती है। - -1. **YOLOv3:** यह You Only Look Once (YOLO) वस्तु डिटेक्शन एल्गोरिदम का तीसरा संस्करण है। प्रारंभिक रूप में Joseph Redmon ने विकसित किया, YOLOv3 ने योग्यताओं का एक श्रेणी, जैसे कि मल्टीस्केल पूर्वानुमान और तीन भिन्न आकार के डिटेक्शन कर्नल्स, को शामिल करके अपने पूर्वजों पर सुधार किया। - -2. **YOLOv3-Ultralytics:** यह YOLOv3 मॉडल का Ultralytics अनुपालन है। इसने मूल YOLOv3 की वास्तविकता को पुनर्जीवित किया है और अतिरिक्त कार्यक्षमताओं, जैसे कि अधिक पूर्व-प्रशिक्षित मॉडलों का समर्थन और और सुगठनितकरण विकल्पों की सुविधा भी प्रदान करता है। - -3. **YOLOv3u:** यह YOLOv3-Ultralytics का एक अद्यतित संस्करण है जो YOLOv8 मॉडलों में उपयोग में लाया गया एंकर-मुक्त, टैग-न्यूमनेस स्प्लिट हेड को शामिल करता है। YOLOv3u में योग्यता योजना (backbone) और गर्दन (neck) की वास्तविकता तो बनाए रखती है, लेकिन डिटेक्शन हेड को YOLOv8 से अद्यतित कर देती है। - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## प्रमुख विशेषताएं - -- **YOLOv3:** डिटेक्शन के लिए तीन भिन्न पैमाने का उपयोग करने की एकता वाला यह मॉडल, 13x13, 26x26 और 52x52 के तीन भिन्न आकाृ के डिटेक्शन कर्नल्स के उपयोग से जल्दी जाने जाने वाले वस्तुओं के लिए डिटेक्शन की योग्यता में सुधार करती है। इसके अतिरिक्त, YOLOv3 ने प्रति बाउंडिग बॉक्स के लिए मल्टी-लेबल पूर्वानुमान और एक बेहतर फ़ीचर एक्सट्रैक्टर नेटवर्क जैसी विशेषताएँ भी जोड़ी हैं। - -- **YOLOv3-Ultralytics:** Ultralytics के YOLOv3 के अनुपालन में यह मॉडल मूल मॉडल की प्रदर्शन की समता प्रदान करता है, लेकिन इसके पास अतिरिक्त पूर्व-प्रशिक्षित मॉडलों, अधिक प्रशिक्षण विधियों और सुविधाजनक सुविधाएँ जैसे अतिरिक्त समर्थन होता है। इससे इसका विभिन्न अनुप्रयोगों में उपयोग करना संभव होता है। - -- **YOLOv3u:** यह अद्यतित मॉडल YOLOv8 से योग्यता योजना का उपयोग करता है। योज्ञता के पूर्व-निर्धारित एंकर बॉक्स और पदार्थता स्कोर की आवश्यकता को मिटा कर, यह डिटेक्शन हेड का डिजाइन मॉडल की योग्यता को बेहतरीन आकार और आकृति के वस्तुओं की पहचान करने की क्षमता में सुधार कर सकता है। इससे वस्तु डिटेक्शन के कार्यों के लिए YOLOv3u मॉडलों में बढ़िया सुरक्षा और सटीकता प्राप्त हो सकती है। - -## समर्थित कार्य और मोड - -YOLOv3 श्रृंखला, इनमें YOLOv3, YOLOv3-Ultralytics और YOLOv3u शामिल हैं, विशेष रूप से वस्तु डिटेक्शन कार्यों के लिए विभिन्न प्रतिष्ठित हालत में डिज़ाइन किए गए हैं। ये मॉडल सटीकता और गति में संतुलन स्थापित करने के लिए प्रसिद्ध हैं। प्रत्येक वैरिएंट अद्वितीय सुविधाएँ और अनुकूलन प्रदान करती हैं, इसलिए इनका उपयोग विभिन्न अनुप्रयोगों के लिए संभव है। - -तीनों मॉडलों को पूर्ण उपयोगता में उपयोग करने के लिए विभिन्न मोड हैं, इनमें [इनफेरेंस](../modes/predict.md), [मान्यकरण](../modes/val.md), [प्रशिक्षण](../modes/train.md) और [निर्यात](../modes/export.md) शामिल हैं, विभाजनित किये गए हैं। ये मोडल उपयोगकर्ताओं को वस्तू डिटेक्शन के प्रभावी आवागमन और विकास के विभाजन के विभाजन के लिए एक पूरी उपकरण पर्याप्तता प्रदान करते हैं। - -| मॉडल प्रकार | समर्थित कार्य | इनफेरेंस | मान्यकरण | प्रशिक्षण | निर्यात | -|--------------------|--------------------------------------|----------|----------|-----------|---------| -| YOLOv3 | [वस्तु डिटेक्शन](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [वस्तु डिटेक्शन](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [वस्तु डिटेक्शन](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -यह तालिका प्रत्येक YOLOv3 वेरिएंट की क्षमताओं की क्षणभंगुर झलक प्रदान करती है, इसमें विभिन्न कार्यों और ऑपरेशनल मोड के लिए उपयुक्तता और विभाजन मानकों को प्रदर्शित किया गया है। - -## उपयोग की उदाहरण - -यह उदाहरण YOLOv3 प्रशिक्षण और इनफेरेंस के आसान उदाहरण प्रदान करता है। इन और अन्य [मोड](../modes/index.md) के बारे में विस्तारपूर्वक दस्तावेज़ीकरण के लिए इसके साथी [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) और [Export](../modes/export.md) दस्तावेज़ पेजेज़ की जांच करें। - -!!! Example "उदाहरण" - - === "Python" - - `*.pt` प्रीट्रेन किए गए PyTorch मॉडल और कॉन्फ़िगरेशन `*.yaml` फ़ाइल Python में YOLO() क्लास कों यूज़ करके एक मॉडल इंस्टेंस तैयार करने के लिए पास कर सकते हैं: - - ```python - from ultralytics import YOLO - - # COCO-pretrained YOLOv3n मॉडल लोड करें - model = YOLO('yolov3n.pt') - - # मॉडल की जानकारी प्रदर्शित करें (वैकल्पिक) - model.info() - - # COCO8 उदाहरण डेटासेट पर मॉडल 100 epochs के लिए प्रशिक्षण दें - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # YOLOv3n मॉडल के साथ 'bus.jpg' छवि पर इनफेरेंस चलाएं - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - मॉडल पर चलाने के लिए CLI आदेश उपलब्ध हैं: - - ```bash - # COCO-pretrained YOLOv3n मॉडल लोड करें और COCO8 उदाहरण डेटासेट पर इसे 100 epochs के लिए प्रशिक्षित करें - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO-pretrained YOLOv3n मॉडल लोड करें और 'bus.jpg' छवि पर इनफेरेंस चलाएं - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## उद्धरण और प्रशंसापत्र - -अगर आप अपने शोध में YOLOv3 का उपयोग करते हैं, तो कृपया मूल YOLO पेपर्स और Ultralytics YOLOv3 रिपॉज़िटरी को उद्धृत करें। - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -Joseph Redmon और Ali Farhadi को मूल YOLOv3 विकसकर्ताओं के लिए धन्यवाद। diff --git a/docs/hi/models/yolov4.md b/docs/hi/models/yolov4.md deleted file mode 100644 index a2cfb4f66ac..00000000000 --- a/docs/hi/models/yolov4.md +++ /dev/null @@ -1,69 +0,0 @@ ---- -comments: true -description: YOLOv4 के बारे में हमारे विस्तृत गाइड पर आपका स्वागत है, जो एक नवीनतम समय मेंकिए गए वास्तविक समय वस्तुओं का पता लगाने वाला उत्कृष्ट ऑब्जेक्ट डिटेक्टर है। इसे योग्यता से उपयोग करने, आर्किटेक्चर के प्रमुख बिंदुओं को समझने और उपयोग की दृष्टि से कुछ उदाहरणों को देखने के लिए पढ़ें। -keywords: ultralytics, YOLOv4, ऑब्जेक्ट डिटेक्शन, न्यूरल नेटवर्क, वास्तविक समय में पता लगाने वाला, ऑब्जेक्ट डिटेक्टर, मशीन लर्निंग ---- - -# YOLOv4: उच्च गति और सटीक ऑब्जेक्ट डिटेक्शन - -YOLOv4, जो 2020 में अलेक्सी बोचकोवस्की (Alexey Bochkovskiy) द्वारा [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet) पर लॉन्च हुआ एक उत्कृष्ट बाज़ार में समयविशेषी-मेंट करने वाले ऑब्जेक्ट डिटेक्टर है, के बारे में Ultralytics दस्तावेज़ीकरण पेज में आपका स्वागत है। YOLOv4 गति और सटीकता के बीच आदर्श संतुलन प्रदान करने के लिए डिज़ाइन किया गया है, जो इसे बहुत सारे एप्लिकेशन के लिए एक उत्कृष्ट विकल्प बनाता है। - -![YOLOv4 आर्किटेक्चर आरेख](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**YOLOv4 आर्किटेक्चर आरेख**। YOLOv4 की जटिल नेटवर्क डिज़ाइन का प्रदर्शन, जिसमें बैकबोन, नेक और हेड घटक और उनके जोड़े गए स्तरों की दिखावटी तस्वीर है, ताकि वास्तविक समय ऑब्जेक्ट डिटेक्शन के लिए उनका उपयोग किया जा सके। - -## परिचय - -YOLOv4 का मतलब होता है 'You Only Look Once' संस्करण 4। यह एक वास्तविक समय ऑब्जेक्ट डिटेक्शन मॉडल है जो पिछले YOLO संस्करणों जैसे YOLOv3 और अन्य ऑब्जेक्ट डिटेक्शन मॉडलों की सीमाओं का सामना करने के लिए विकसित किया गया है। अन्य कन्वोल्यूशनल न्यूरल नेटवर्क (CNN) आधारित ऑब्जेक्ट डिटेक्टरों के विपरीत, YOLOv4 का उपयोग सिर्फ अनुशंसा प्रणालियों के लिए ही नहीं, बल्कि स्वतंत्र प्रक्रिया प्रबंधन और मानव इनपुट को कम करने के लिए भी किया जा सकता है। यह एक साधारण ग्राफ़िक्स प्रोसेसिंग इकाइयां (जीपीयू) पर अपना कार्य संपादित करने की अनुमति देता है और केवल एक ऐसे जीपीयू के लिए प्रशिक्षण के लिए एक ही जीपीयू की आवश्यकता होती है। - -## आर्किटेक्चर - -YOLOv4 अपने प्रदर्शन को अनुकूलित करने के लिए कई नवाचारी विशेषताओं का उपयोग करता है। इनमें वेटेड-रेजिड्यूल-कनेक्शंस (WRC), क्रॉस-स्टेज-पार्शल-कनेक्शंस (CSP), क्रॉस मिनी-बैच नियमन (CmBN), सेल्फ-प्रतिहिंसा-प्रशिक्षण (SAT), मिश ऐक्टिवेशन, मोज़ेक डेटा वृद्धि, ड्रॉपब्लॉक नियमन और सीआईओयू हानि शामिल हैं। ये विशेषताएँ संयुक्त रूप से बेहतरीन परिणाम प्राप्त करने के लिए संयोजित की जाती हैं। - -आमतौर पर, एक ऑब्जेक्ट डिटेक्टर में कई हिस्से होते हैं जिनमें इनपुट, बैकबोन, नेक और हेड शामिल होते हैं। YOLOv4 का बैकबोन ImageNet पर पूरी तरह से प्रशिक्षित होता है और यह वस्तुओं के वर्गों और बाउंडिंग बॉक्स का अनुमान लगाने के लिए उपयोग किया जाता है। बैकबोन विभिन्न मॉडलों में से हो सकता है, जैसे VGG, ResNet, ResNeXt या DenseNet। डिटेक्शन हेड भाग ताकि अंतिम ऑब्जेक्ट डिटेक्शन और श्रेणीकरण किए जा सकें। - -## फ्रीबीज़ सूचना - -YOLOv4 उन विधियों का उपयोग करता है जिन्हें "फ्रीबीज़ का संग्रह" कहा जाता है, जो मॉडल की उन्नतता को प्रशिक्षण के दौरान बढ़ाने और संविधान के लागू होने की कीमत बढ़ाते हैं। डाटा वृद्धि ऑब्जेक्ट डिटेक्शन में उपयोग होने वाली एक सामान्य फ्रीबीज़ टिकनिक है, जो मॉडल की संवेगीता बढ़ाने के लिए इनपुट छवियों की विविधता बढ़ाती है। डाटा वृद्धि के कुछ उदाहरण हैं जिनमें फोटोमेट्रिक दिसंगत (चित्र के एक छवि के तेजी, बंदिश, सोने, उष्णता और आवाज़ को समायोजित करना) और ज्यामितिक दिसंगत (एक छवि के रैंडम स्केलिंग, क्रॉपिंग, फ्लिपिंग और घुमाने के जोड़ने) शामिल होते हैं। ये टिकनिक मॉडल को अलग-अलग प्रकार की छवियों में बेहतर सामान्यीकरण करने में सहायता करते हैं। - -## विशेषताएँ और प्रदर्शन - -YOLOv4 को वास्तविक समय ऑब्जेक्ट डिटेक्शन में उच्च गति और सटीकता के लिए डिज़ाइन किया गया है। YOLOv4 की आर्किटेक्चर में CSPDarknet53 बैकबोन के रूप में, नेक के रूप में PANet, और डिटेक्शन हेड के रूप में YOLOv3 शामिल हैं। यह डिज़ाइन YOLOv4 को एक प्रभावशाली गति पर ऑब्जेक्ट डिटेक्शन करने की अनुमति देता है, जिससे यह वास्तविक समय में उपयुक्त होता है। YOLOv4 ऑब्जेक्ट डिटेक्शन मानकों में उच्च गुणवत्ता हासिल करने में भी उत्कृष्टता करता है। - -## उपयोग की उदाहरण - -मामले से आप योग्यता संबंधित विस्तारित चरणों का उपयोग करने के लिए YOLOv4 का उपयोग करना चाहेंगे: - -1. YOLOv4 GitHub रिपॉज़िटरी पर जाएं: [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet)। - -2. स्थापना के लिए readme फ़ाइल में दिए गए निर्देशों का पालन करें। इसमें सामान्यतया रिपॉज़िटरी क्लोन करना, आवश्यक डिपेंडेंसियों को स्थापित करना और किसी आवश्यक पर्यावरण चर पर सेटअप करना शामिल होता है। - -3. स्थापना पूरी होने पर, आप मॉडल को प्रशिक्षित कर सकते हैं और उसे ऑब्जेक्ट डिटेक्शन करने के लिए उपयोग कर सकते हैं हमॉडन/रिपॉज़िटरी में दिए गए उपयोग के निर्देशों के अनुसार। यह आमतौर पर अपने डेटासेट को तैयार करना, मॉडल पैरामीटर्स को कॉन्फ़िगर करना, मॉडल को प्रशिक्षित करना और फिर प्रशिक्षित मॉडल का उपयोग ऑब्जेक्ट डिटेक्शन करने के लिए करता है। - -कृपया ध्यान दें कि विशिष्ट चरण आपके विशिष्ट उपयोग मामले और YOLOv4 रेपोज़िटरी की स्थिति पर निर्भर कर सकते हैं। इसलिए, YOLOv4 गिद्धशाली रिपॉज़िटरी में दिए गए निर्देशों का उपयोग करने की कड़ी सलाह दी जाती है। - -हम इस बात की असुविधा के लिए माफी चाहते हैं और YOLOv4 के समर्थन को Ultralytics के लिए लागू किया जाने पर उपयोग की उदाहरणों के साथ इस दस्तावेज़ को अद्यतित करने की कोशिश करेंगे। - -## निष्कर्ष - -YOLOv4 एक शक्तिशाली और कुशल ऑब्जेक्ट डिटेक्शन मॉडल है जो गति और सटीकता के बीच संतुलन स्थापित करता है। प्रशिक्षण के दौरान उनिक विशेषताओं और फ्रीबीज़ तकनीकों का उपयोग करके, यह वास्तविक समय ऑब्जेक्ट डिटेक्शन कार्यों में उत्कृष्ट प्रदर्शन करता है। किसी आम जीपीयू के साथ किसी भी व्यक्ति द्वारा प्रशिक्षित और उपयोग किया जा सकता है, जो इसे विभिन्न एप्लिकेशन के लिए पहुंच योग्य और व्यावहारिक बनाता है। - -## संदर्भ और प्रशंसा - -हम YOLOv4 लेखकों को इस फ़ील्ड में उनके महत्वपूर्ण योगदानों के लिए आभार व्यक्त करना चाहेंगे: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -मूल YOLOv4 पेपर [arXiv](https://arxiv.org/abs/2004.10934) पर मिल सकता है। लेखकों ने अपने कार्य को पब्लिकली उपलब्ध कराया है, और कोडबेस [GitHub](https://github.com/AlexeyAB/darknet) पर एक्सेस किया जा सकता है। हम उनके कोशिशों की सराहना करते हैं जो क्षेत्र को आगे बढ़ाने और उनके काम को व्यापक समुदाय के लिए उपलब्ध कराने में करते हैं। diff --git a/docs/hi/models/yolov5.md b/docs/hi/models/yolov5.md deleted file mode 100644 index def95f7b541..00000000000 --- a/docs/hi/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: योलोवी5यू की खोज करें, योलोवी5 मॉडल का एक बढ़ाया हुआ संस्करण जिसमें एक निश्चित रफ़्तार के बदलाव और विभिन्न वस्तु ज्ञापन कार्यों के लिए कई पूर्व प्रशिक्षित मॉडल शामिल हैं। -keywords: YOLOv5u, वस्तु ज्ञापन, पूर्व प्रशिक्षित मॉडल, Ultralytics, Inference, Validation, YOLOv5, YOLOv8, एंचर-मुक्त, वस्तुनिपाति रहित, वास्तविक समय अनुप्रयोग, मशीन लर्निंग ---- - -# योलोवी5 - -## समीक्षा - -YOLOv5u वस्तु ज्ञापन के तरीकों में एक पटल बढ़ोतरी को प्रतिष्ठानित करता है। योग्यता ग्रहण और समय की मूल्य-माप बदलती शैली के आधार पर आधारित योलोवी5 मॉडल की स्थापना से परिचय में सुधार लाती है। तात्कालिक परिणामों और इसकी प्राप्त विशेषताओं के मद्देनजर, YOLOv5u एक ऐसा कुशल स्थानांतरण प्रदान करता है जो नवीन रंगेंगर में शोध और व्यावसायिक अनुप्रयोगों में सठिक समाधानों की तलाश कर रहे हैं। - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## मुख्य विशेषताएं - -- **एंचर-मुक्त हिस्सा उल्ट्रालिटिक्स हेड:** पारंपरिक वस्तु ज्ञापन मॉडल निश्चित प्रमुख बॉक्सों पर आधारित होते हैं। हालांकि, YOLOv5u इस दृष्टिकोण को आधुनिक बनाता है। एक एंचर-मुक्त हिस्सा उल्ट्रालिटिक्स हेड की अपनाने से यह सुनिश्चित करता है कि एक और उचित और अनुरूप ज्ञापन मेकेनिज़म निर्धारित करें, जिससे विभिन्न परिदृश्यों में प्रदर्शन में सुधार होता है। - -- **में सुधार गया गुणांक गति वस्तु:** गति और सुधार का anomaly रहता हैं। लेकिन YOLOv5u इस विरोधाभासी को चुनौती देता है। इस रंगेंगर व पुष्टि दृढ़ कर सुनिश्चित करता है वास्तविक समयगत ज्ञापन में स्थैतिकता नुकसान के बिना। यह विशेषता वाहन स्वतंत्र, रोबोटिक्स, और वास्तविक समयगत वीडियो विश्लेषण जैसे तत्वों को चाहती अनुप्रयोगों के लिए विशिष्ट सबक की अनमोलता होती है। - -- **प्रशिक्षित मॉडल के विभिन्न वस्तुधापर्यावथाएं:** यह समझने कि लिए कि विभिन्न कार्यों के लिए विभिन्न उपकरण की जरूरत होती है, YOLOv5u एक कई पूर्व प्रशिक्षित मॉडल प्रदान करता है। चाहे आप ज्ञापन, मान्यता, या प्रशिक्षण पर ध्यान केंद्रित कर रहे हैं, आपकी अद्वितीय चुनौती के लिए एक टेलरमेड मॉडल है। यह विविधता यह सुनिश्चित करती है कि आप एक वन-साइज-फिट ऑल समाधान ही नहीं उपयोग कर रहे हैं, बल्कि अपनी अद्यापित अद्वितीय चुनौती के लिए एक मॉडल का उपयोग कर रहे हैं। - -## समर्थित कार्य तथा मोड - -योलोवी5u मॉडल, विभिन्न पूर्व प्रशिक्षित वेट वाली, [वस्तु ज्ञापन](../tasks/detect.md) कार्यों में उत्कृष्ट हैं। इन्हें विभिन्न ऑपरेशन मोड्स का समर्थन है, इसलिए इन्हें विकास से लेकर अंतर्गत उन्नतिशील अनुप्रयोगों के लिए उपयुक्त ठहराया जा सकता है। - -| मॉडल प्रकार | पूर्व प्रशिक्षित वेट | कार्य | ज्ञापन | मान्यता | प्रशिक्षण | निर्यात | -|-------------|-----------------------------------------------------------------------------------------------------------------------------|------------------------------------|--------|---------|-----------|---------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [वस्तु ज्ञापन](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -यह तालिका योलोवी5u मॉडल के विभिन्न जैविक वेशभूषा प्रस्तुत करती है, इनके वस्तु ज्ञापन कार्यों में लागूहोने और [ज्ञापन](../modes/predict.md), [मान्यता](../modes/val.md), [प्रशिक्षण](../modes/train.md), और [निर्यात](../modes/export.md) की समर्थनता को उज्ज्वल बनाती है। इस समर्थन की पूर्णता सुनिश्चित करती है कि उपयोगकर्ता योलोवी5u मॉडल्स की संपूर्ण क्षमताओं का खास लाभ उठा सकते हैं विभिन्न ऑब्जेक्ट ज्ञापन स्थितियों में। - -## प्रदर्शन पैमाने - -!!! Performance - - === "ज्ञापन" - - [देखें ज्ञापन डॉकस](https://docs.ultralytics.com/tasks/detect/) को [COCO](https://docs.ultralytics.com/datasets/detect/coco/) पर प्रशिक्षित इन मॉडल्स के उपयोग के साथ उपयोग उदाहरण जैसे विविध पूर्व-प्रशिक्षित वर्गों को शामिल करता है। - - | मॉडल | YAML | साइज़
(पिक्सेल) | mAPवैल
50-95 | गति
CPU ONNX
(मि.से.) | गति
A100 TensorRT
(मि.से.) | params
(M) | FLOPs
(B) | - |---------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|---------------------------|------------------------|--------------------------------|-----------------------------------------|--------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43.0 | 120.7 | 1.27 | 9.1 | 24.0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49.0 | 233.9 | 1.86 | 25.1 | 64.2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52.2 | 408.4 | 2.50 | 53.2 | 135.0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53.2 | 763.2 | 3.81 | 97.2 | 246.4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42.1 | 211.0 | 1.83 | 4.3 | 7.8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48.6 | 422.6 | 2.34 | 15.3 | 24.6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53.6 | 810.9 | 4.36 | 41.2 | 65.7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55.7 | 1470.9 | 5.47 | 86.1 | 137.4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56.8 | 2436.5 | 8.98 | 155.4 | 250.7 | - -## उपयोग उदाहरण - -इस उदाहरण में सरल YOLOv5 चालन और ज्ञापन उदाहरण प्रदान किए गए हैं। इन और अन्य [modes](../modes/index.md) के लिए पूर्ण संदर्भ सामग्री के लिए दस्तावेज़ीकरण पृष्ठों में जाएं। - -!!! Example "उदाहरण" - - === "पायथन" - - पायथन में एक मॉडल उदाहरण के लिए योलोवी5 आईएमजेड हालत में `*.pt` मॉडल्स के साथ मॉडल निर्माण के लिए `YOLO()` श्रेणी को पारित किया जा सकता है: - - ```python - from ultralytics import YOLO - - # COCO-pretrained YOLOv5n मॉडल लोड करें - model = YOLO('yolov5n.pt') - - # मॉडल जानकारी प्रदर्शित करें (वैकल्पिक) - model.info() - - # COCO8 प्रायोगिक उदाहरण डेटासेट पर 100 एपॉक के लिए मॉडल - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # YOLOv5n मॉडल के साथ 'bus.jpg' छविमें ज्ञापन चलाएं - results = model('path/to/bus.jpg') - ``` - - === "सी.एल.आई." - - मालिशी आदेशों का उपयोग सीधे मॉडलों को चलाने के लिए उपलब्ध हैं: - - ```bash - # COCO-प्रशिक्षित YOLOv5n मॉडल खोलें और 100 एपॉक के लिए इसे COCO8 प्रायोगिक उदाहरण डेटासेट पर प्रशिक्षित करें - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO-प्रशिक्षित YOLOv5n मॉडल खोलें और 'bus.jpg' छवि में ज्ञापन चलाएं - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## उद्धरण और मान्यता - -यदि आप अपने शोध में YOLOv5 या YOLOv5u का उपयोग करते हैं, तो कृपया Ultralytics YOLOv5 दस्तावेज़ीकरण में मुख्य रूप से उल्लेख करें: - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -कृपया ध्यान दें कि YOLOv5 मॉडलें [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) और [एंटरप्राइज](https://ultralytics.com/license) लाइसेंस में उपलब्ध हैं। diff --git a/docs/hi/models/yolov6.md b/docs/hi/models/yolov6.md deleted file mode 100644 index 06b946a98ac..00000000000 --- a/docs/hi/models/yolov6.md +++ /dev/null @@ -1,90 +0,0 @@ ---- -comments: true -description: एक उत्कृष्ट वस्तु पहचानने मॉडल में स्पीड और सटीकता के बीच एक सामंजस्य स्थापित करने वाला, रीयल-टाइम एप्लिकेशन्स के लिए लोकप्रिय भारतीय ब्रांड योलोवी6 का अध्ययन करें। उल्ट्रालिटिक्स के लिए मीथुन योलोवी6, फ़ीचर्स, पूर्व-प्रशिक्षित मॉडल्स और पायथन उपयोग पर डाइव करें। -keywords: मिथुन योलोवी6, वस्तु पहचान, Ultralytics, योलोवी6 दस्तावेज़, प्रतिस्थापन में द्विदिशीय जोड़, एंकर-सहायित प्रशिक्षण, पूर्व-प्रशिक्षित मॉडल, वास्तविक समय एप्लिकेशन्स ---- - -# मिथुन योलोवी6 - -## परियोजना - -[मिथुन](https://about.meituan.com/) योलोवी6 एक नवीनतम वस्तु पहचानकर्ता है जो स्पीड और सटीकता के बीच अद्वितीय संतुलन प्रदान करता है, जिसके कारण यह वास्तविक समय एप्लिकेशन्स के लिए एक लोकप्रिय विकल्प है। इस मॉडल ने अपने आर्किटेक्चर और प्रशिक्षण योजना पर कई आदर्श नवीनतमान वृद्धियों को पेश किया है, जिसमें एक जोड़ने-द्विदिशीकरण (BiC) मॉड्यूल, एंकर-सहायित प्रशिक्षण (AAT) स्ट्रेटेजी, और COCO डेटासेट पर अद्वितीय सटीकता के लिए सुधारित बैकबोन और गर्दन डिज़ाइन का क्रियान्वयन शामिल है। - -![मिथुन योलोवी6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![माॅडेल उदाहरण छवि](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**योलोवी6 का अवलोकन।** मॉडल आर्किटेक्चर आरेख आपको बड़ी प्रदर्शन वृद्धि करने वाले संकरणों और प्रशिक्षण रणनीतियों का आभास कराता है। (a) योलोवी6 का गर्दन (N और S दिखाए गए हैं)। M/L के लिए, रिपब्लॉक को सीएसपीस्टैकरेप से बदल दिया गया है। (b) बीसी मॉड्यूल का संरचना। (c) एक सिमकुस्पस्पफ ब्लॉक। ([स्रोत](https://arxiv.org/pdf/2301.05586.pdf))। - -### मुख्य विशेषताएं - -- **द्विदिशीय जोड़ने (BiC) मॉड्यूल:** योलोवी6 डिटेक्टर के गर्दन में BiC मॉड्यूल प्रस्तुत करता है, जिससे स्थानांतरण सिग्नल में सुधार होती है और ज्ञानसंक्षेप में गतिविधि के साथ प्रदर्शन सुधार होता है। -- **एंकर-सहायित प्रशिक्षण (AAT) स्ट्रेटेजी:** यह मॉडल AAT प्रस्तावित करता है ताकि यह एंकर-आधारित और एंकर-मुक्त दोनों परंपराओं के लाभ प्राप्त कर सके और अंतर्निहित क्षमता पर खराब प्रभाव न हो। -- **सुधारित बैकबोन और गर्दन डिज़ाइन:** YOLOv6 को बैकबोन और गर्दन में एक और स्टेज शामिल करके, इस मॉडल ने कोको डेटासेट पर अद्वितीय प्रदर्शन को उच्च-संकल्पन इनपुट पर प्राप्त किया है। -- **स्व-स्त्रावबद्धि (Self-Distillation) स्ट्रेटेजी:** छोटे YOLOv6 मॉडलों के प्रदर्शन को बढ़ाने के लिए, यहां नई स्व-स्त्रावबद्धि स्ट्रेटेजी का अमल किया गया है, जिससे प्रशिक्षण के दौरान मददगार संश्लेषण शाखा को सुधारा जाता है और प्रशिक्षण में इसे हटा दिया जाता है ताकि मार्क की गति में प्रमुख गिरावट न हो। - -## प्रदर्शन माप - -YOLOv6 विभिन्न पूर्व-प्रशिक्षित मॉडलों के साथ प्रदान करता है जिनमें अलग-अलग स्केल होती हैं: - -- YOLOv6-N: NVIDIA Tesla T4 GPU पर 1187 फ्रेम प्रति सेकंड पर COCO val2017 में 37.5% एपी। -- YOLOv6-S: 484 फ्रेम प्रति सेकंड पर 45.0% एपी। -- YOLOv6-M: 226 फ्रेम प्रति सेकंड पर 50.0% एपी। -- YOLOv6-L: 116 फ्रेम प्रति सेकंड पर 52.8% एपी। -- YOLOv6-L6: वास्तविक समय में पराकाष्ठा की सटीकता। - -YOLOv6 ऐसे पालटने वाले मॉडल भी प्रदान करता है जिनमें विभिन्न परिशुद्धियां होती हैं और मोबाइल प्लेटफ़ॉर्म के लिए अनुकूलित मॉडल्स होती हैं। - -## उपयोग उदाहरण - -यह उदाहरण आसान YOLOv6 प्रशिक्षण और संदर्भ उदाहरण प्रदान करता है। इन और अन्य [modes](../modes/index.md) के लिए पूर्ण दस्तावेज़ीकरण के लिए [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) और [Export](../modes/export.md) डॉक्स पेज देखें। - -!!! Example "उदाहरण" - - === "पायथन" - - PyTorch से पूर्व-प्रशिक्षित `*.pt` मॉडल और कॉन्फ़िगरेशन `*.yaml` फ़ाइलें पास करके `YOLO()` कक्षा में एक मॉडल उदाहरण बनाया जा सकता है: - - ```python - from ultralytics import YOLO - - # खाली स्थान से एक YOLOv6n मॉडल बनाएँ - model = YOLO('yolov6n.yaml') - - # मॉडल की जानकारी प्रदर्शित करें (वैकल्पिक) - model.info() - - # COCO8 उदाहरण डेटासेट पर मॉडल को 100 एपोक के लिए प्रशिक्षित करें - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg' छवि पर YOLOv6n मॉडल के साथ निर्धारण चलाएँ - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - मॉडल को निर्धारित करने के लिए सीएलआई कमांड उपलब्ध हैं: - - ```bash - # शुरू से एक YOLOv6n मॉडल बनाएँ और इसे COCO8 उदाहरण डेटासेट पर 100 एपोक के लिए प्रशिक्षित करें - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # शुरू से एक YOLOv6n मॉडल बनाएँ और 'bus.jpg' छवि पर निधारण चलाएँ - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## समर्थित कार्य और मोड - -YOLOv6 श्रृंखला उच्च प्रदर्शन [वस्तु पहचान](../tasks/detect.md) के लिए विभिन्न मॉडल प्रदान करती है। इन मॉडल्स में विभिन्न गणना और सटीकता की आवश्यकताओं के लिए आदर्श होते हैं, जिससे इन्हें विभिन्न अनुप्रयोगों के लिए विचारशील होता है। - -| मॉडल का प्रकार | पूर्व-प्रशिक्षित भार | समर्थित कार्य | निर्धारण | मान्यीकरण | प्रशिक्षण | निर्यात | -|----------------|----------------------|-----------------------------------|----------|-----------|-----------|---------| -| YOLOv6-N | `yolov6-n.pt` | [वस्तु पहचान](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [वस्तु पहचान](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [वस्तु पहचान](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [वस्तु पहचान](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [वस्तु पहचान](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -यह तालिका योलोवी6 मॉडल वेरिएंट्स का विस्तृत अवलोकन प्रदान करती है, जो वस्तु पहचान कार्यों में उनकी क्षमताओं और विभिन्न संचालन मोडों के साथ [निर्धारण](../modes/predict.md), [मान्यीकरण](../modes/val.md), [प्रशिक्षण](../modes/train.md), और [निर्यात](../modes/export.md) के संगतता को हाइलाइट करते हैं। इस व्यापक समर्थन से उपयोगकर्ताओं को योलोवी6 मॉडलों की क्षमताओं का पूरा उपयोग करने की सुविधा होती है एक व्यापक वस्तु पहचान स्थिति में। - -## सन्दर्भ और पुन:ज्ञानजनक - -हम मूल योलोवी6 कागज पर [arXiv](https://arxiv.org/abs/2301.05586) में उपलब्ध हैं काम के लिए संघ द्वारा स्विकृति दी जाती है। लेखकों ने अपने काम को सार्वजनिक रूप से उपलब्ध कराया है, और कोडबेस [GitHub](https://github.com/meituan/YOLOv6) पर पहुंचने के लिए है। हम उनके प्रयासों की प्रशंसा करते हैं क्योंकि वे क्षेत्र को आगे बढ़ाने और अपने काम को आपातकालीन रूप से ब्रॉडर समुदाय को सुलभ बनाने के लिए उनके प्रयासों को पहुंचने में लगे हैं। diff --git a/docs/hi/models/yolov7.md b/docs/hi/models/yolov7.md deleted file mode 100644 index 173b177c2e1..00000000000 --- a/docs/hi/models/yolov7.md +++ /dev/null @@ -1,65 +0,0 @@ ---- -comments: true -description: YOLOv7, एक रियल-टाइम ऑब्जेक्ट डिटेक्टर है। इसकी अद्वितीय स्पीड, प्रभावशाली सटीकता, और अद्यतनीय "बैग-ऑफ-फ्रीबीज" अनुकूलन ध्यानदेने योग्यता को समझें। -keywords: YOLOv7, रियल-टाइम ऑब्जेक्ट डिटेक्टर, तकनीक-से-अलावा कुछ औफ़ान, Ultralytics, MS COCO डेटासेट, मॉडल फिर-पैरामीटरीकरण, डायनामिक लेबल असाइनमेंट, विस्तारित मापन, कंपाउंड मापन ---- - -# YOLOv7: ट्रेनबल बैग-ऑफ-फ्रीबीज़ - -YOLOv7 एक अद्वितीय रियल-टाइम ऑब्जेक्ट डिटेक्टर है जो 5 FPS से 160 FPS तक की रेंज में सभी ज्ञात ऑब्जेक्ट डिटेक्टर्स को तेज़ी और सटीकता के मामले में पीछे छोड़ देता है। यह 30 FPS या उससे अधिक पर GPU V100 पर सभी ज्ञात रियल-टाइम ऑब्जेक्ट डिटेक्टर्स में सबसे अधिक अक्यूरेट (56.8% AP) है। इसके अलावा, YOLOv7 तेजी और सटीकता के मामले में YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5, और कई अन्य ऑब्जेक्ट डिटेक्टर्स से बेहतर परफॉर्म करता है। यह मॉडल MS COCO डेटासेट पर पहले से ही ट्रेनिंग है और किसी अन्य डेटासेट या पूर्व-ट्रेन हुई वेट्स का प्रयोग नहीं करता है। YOLOv7 के स्रोत कोड [GitHub](https://github.com/WongKinYiu/yolov7) पर उपलब्ध है। - -![SOTA ऑब्जेक्ट डिटेक्टर्स के तुलनात्मक मुक़ाबला](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**वैश्विक-से-अलावा ऑब्जेक्ट डिटेक्टर्स का तुलनात्मक मुक़ाबला।** तालिका 2 में प्रदर्शित परिणामों से हमें यह पता चलता है कि प्रस्तावित विधि संपूर्णता से सबसे अच्छा तेजी-अक्यूरेटता संघर्ष लाती है। अगर हम YOLOv7-tiny-SiLU को YOLOv5-N (r6.1) के साथ तुलना करें, तो हमारी विधि 127 fps तेज़ और AP में 10.7% अधिक सटीक है। साथ ही, YOLOv7 के साथ AP 51.4% है जबकि PPYOLOE-L के साथ एक ही AP के साथ 78 fps फ्रेम रेट है। पैरामीटर उपयोग के मामले में, YOLOv7 PPYOLOE-L की तुलना में 41% कम है। YOLOv7-X को 114 fps इन्फरेंस स्पीड के साथ YOLOv5-L (r6.1) के साथ तुलना करें तो, YOLOv7-X AP को 3.9% बढ़ा सकता है। YOLOv7-X को बराबर स्केल के YOLOv5-X (r6.1) के साथ तुलना करें तो, YOLOv7-X की इन्फेरेंस स्पीड 31 fps तेज़ है। साथ ही, पैरामीटर और परिकलन की मात्रा के मामले में, YOLOv7-X पहले योलोव5-X (r6.1) की तुलना में 22% पैरामीटर कम करता है और 8% परिकलन कम करता है, लेकिन AP को 2.2% बढ़ाता है। ([स्रोत](https://arxiv.org/pdf/2207.02696.pdf))। - -## अवलोकन - -रियल-टाइम ऑब्जेक्ट डिटेक्शन कंप्यूटर विजन के कई सिस्टमों में एक महत्वपूर्ण घटक है, जिसमें मल्टी-ऑब्जेक्ट ट्रैकिंग, स्वतंत्र चालन, रोबोटिक्स, और मेडिकल इमेज विश्लेषण शामिल हैं। योग्यता के विकास के लिए हाल के वर्षों में रियल-टाइम ऑब्जेक्ट डिटेक्शन विकास ने विभिन्न सीपीयू, जीपीयू, और न्यूरल प्रोसेसिंग यूनिटों (एनपीयू) के कार्यान्वयन की तेजी बढ़ाने और अधिक अधिक ज्ञानसरचकों के लिए। YOLOv7 ने मोबाइल जीपीयू और जीपीयू डिवाइस, इज़्ज टु द क्लाउड, को समर्थन दिया है। - -पारंपरिक रियल-टाइम ऑब्जेक्ट डिटेक्टर्स की तुलना में जो कि शारीरिक अभिव्यक्ति अनुकूलन पर ध्यान केंद्रित होते हैं, YOLOv7 ट्रेनिंग प्रक्रिया को अनुकरण करने पर ध्यान केंद्रित करने का सुझाव देता है। इसमें मॉड्यूल्स और ऑप्टिमाइज़ेशन मेथड्स शामिल हैं जिनका उपयोग करके ऑब्जेक्ट डिटेक्शन की अक्यूरेसी में सुधार किया जाता है बिना इन्फेरेंस की लागत बढ़ाए, जिसे "ट्रेनबल बैग-ऑफ-फ्रीबीज़" की एक नई कांसेप्ट के आधार पर कहा जाता है। - -## मुख्य विशेषताएँ - -YOLOv7 साथ में कई मुख्य विशेषताएँ लाता है: - -1. **मॉडल फिर-पैरामीटरीकरण**: YOLOv7 एक योजना बनाकर फिर-पैरामीटराइज़्ड मॉडल प्रस्तावित करता है, जो एक कण्टिनुअस संकर्णन पथ की संकल्पना के साथ विभिन्न नेटवर्कों के लिए लागू करने योग्य है। - -2. **डायनामिक लेबल असाइनमेंट**: एकाधिक आउटपुट लेयर्स के साथ मॉडल की ट्रेनिंग करने से एक नया मुद्दा पेश किया जाता है: "अलग-अलग शाखाओं के आउटपुट के लिए डायनामिक निर्धारित लक्ष्य कैसे दें?" इस समस्या को हल करने के लिए, YOLOv7 ने "कॉर्स-टू-फ़ाइन लीड गाइडेड लेबल असाइनमेंट" नामक एक नई लेबल असाइनमेंट विधि पेश की है। - -3. **विस्तारित और कंपाउंड मापन**: YOLOv7 वास्तविक समय ऑब्जेक्ट डिटेक्टर के लिए "विस्तारित" और "कंपाउंड मापन" विधियों को प्रस्तावित करता है जो पैरामीटर और परिकलन का सकारात्मक रूप से उपयोग कर सकती हैं। - -4. **दक्षता**: YOLOv7 द्वारा प्रस्तावित विधि राष्ट्रीय स्तर के वास्तविक समय ऑब्जेक्ट डिटेक्टर के लगभग 40% पैरामीटर और 50% परिकलन को कम कर सकती है, और बेहतर इन्फेरेंस गति और अधिक डिटेक्शन अक्यूरेसी है। - -## उपयोग की उदाहरण - -लेख की अवस्था के समय, Ultralytics वर्तमान में YOLOv7 मॉडेल का समर्थन नहीं करता है। इसलिए, YOLOv7 का उपयोग करना चाहने वाले किसी भी उपयोगकर्ता के लिए योग्यता के लिए कृपया सीधे YOLOv7 GitHub रिपॉज़िटरी के निर्देशिका का संदर्भ लें। - -यहां YOLOv7 का उपयोग करने के लिए आप निम्नलिखित आम कदमों का सारांश देख सकते हैं: - -1. YOLOv7 GitHub रिपॉज़िटरी पर जाएं: [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7)। - -2. स्थापना के लिए README फ़ाइल में दिए हुए निर्देशों का पालन करें। इसमें आमतौर पर रिपॉज़िटरी क्लोनिंग, आवश्यक डिपेंडेंसियों की स्थापना, और आवश्यक पर्यावरण चरों का सेटअप शामिल होता है। - -3. स्थापना सम्पूर्ण होने के बाद, आप मॉडल को ट्रेन कर सकते हैं और विशेषताओं का उपयोग करके ऑब्जेक्ट डिटेक्शन कर सकते हैं, जैसा कि रेपॉज़िटरी में उपयोग के निर्देश दिए गए हैं। यह आमतौर पर अपने डेटासेट को तैयार करना, मॉडल पैरामीटर कॉन्फ़िगर करना, मॉडल को ट्रेन करना, और फिर ट्रेन किए गए मॉडल का उपयोग करके ऑब्जेक्ट डिटेक्शन करना शामिल होता है। - -कृपया ध्यान दें कि निर्दिष्ट कदम आपके विशिष्ट उपयोग मामले और YOLOv7 रिपॉज़िटरी की वर्तमान स्थिति पर निर्भर कर सकते हैं। इसलिए, योग्यता के लिए सीधे YOLOv7 GitHub रिपॉज़िटरी में दिए गए निर्देशों का संदर्भ लेना माज़बूती से अनुशंसित है। - -हम इससे होने वाली किसी भी असुविधा के लिए खेद प्रकट करते हैं और YOLOv7 के समर्थन को Ultralytics में लागू होने पर उदाहरणों के साथ इस दस्तावेज़ को अद्यतित करने का प्रयास करेंगे। - -## संदर्भ और आभार - -हम YOLOv7 लेखकों को यहां उल्लेख करना चाहेंगे, उनके वास्तविक समय ऑब्जेक्ट डिटेक्शन क्षेत्र में महत्वपूर्ण योगदान के लिए: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: ट्रेनबल बैग-ऑफ-फ्रीबीज हासिल करता है वास्तविक समय ऑब्जेक्ट डिटेक्टर्स के लिए नई राष्ट्रीय स्तर को}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -YOLOv7 के मूल लेख को [arXiv](https://arxiv.org/pdf/2207.02696.pdf) पर पाया जा सकता है। लेखकों ने अपना काम सार्वजनिक रूप से उपलब्ध किया है और कोडबेस [GitHub](https://github.com/WongKinYiu/yolov7) पर एक्सेस किया जा सकता है। हम उनके प्रयासों की सराहना करते हैं जो क्षेत्र को आगे बढ़ाने और उसे व्यापक समुदाय के लिए सुलभ बनाने में किए गए हैं। diff --git a/docs/hi/models/yolov8.md b/docs/hi/models/yolov8.md deleted file mode 100644 index 11a971663ad..00000000000 --- a/docs/hi/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: YOLOv8 की रोमांचक विशेषताओं का अन्वेषण करें, हमारे वास्तविक समय वस्तु निर्धारक के नवीनतम संस्करण। देखें कैसे प्रगतिशील शृंखलाओं, पूर्व-प्रशिक्षित मॉडलों और सटीकता और गति के बीच सही संतुलन को YOLOv8 के विकल्प में सटे करते हैं संज्ञानघन वस्तुनिर्धारण कार्यों के लिए YOLOv8 को आपके वस्तु आरोप के लिए सही चुनाव बनाता है। -keywords: YOLOv8, Ultralytics, वास्तविक समय वस्तुनिर्धारक, पूर्व-प्रशिक्षित मॉडल, दस्तावेज़ीकरण, वस्तुवाहीनिर्धारण, YOLO श्रृंखला, प्रगतिशील शृंखलाएं, सटीकता, गति ---- - -# YOLOv8 - -## अवलोकन - -YOLOv8 योलो श्रृंखला का नवीनतम संस्करण है, जो सटीकता और गति के मामले में कटिंग-एज प्रदान करता है। पिछले YOLO संस्करणों की प्रगति को अवधारणा करते हुए, YOLOv8 उन्नत सुविधाओं और अनुकूलन को प्रस्तुत करता है, जो इसे विभिन्न वस्तुनिर्धारण कार्यों के लिए एक आदर्श चुनाव बनाता है विभिन्न अनुप्रयोगों में। - -![Ultralytics YOLOv8](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## मुख्य विशेषताएं - -- **उन्नत पीठ और गर्दन शृंखलाएं:** YOLOv8 उन्नत पीठ और गर्दन शृंखलाएं प्रयोग करता है, जिससे विशेषता निष्कर्षण और वस्तु निर्धारण क्षमता की सुधार होती है। -- **एंकर-मुक्त स्प्लिट Ultralytics हैड:** YOLOv8 एंकर-आधारित दृष्टिकोणों की तुलना में अधिक सटीकता और एक अधिक संचालनयोग्य निर्धारण प्रक्रिया के लिए एक एंकर-मुक्त स्प्लिट Ultralytics हेड अपनाता है। -- **सुधारित सटीकता-गति का संतुलन:** सटीकता और गति के मध्य में उचित संतुलन बनाए रखने के ध्यान के साथ, YOLOv8 वास्तविक समय वस्तुनिर्धारण कार्यों के लिए उपयुक्त है जो विभिन्न अनुप्रयोग क्षेत्रों में हो सकते हैं। -- **विभिन्न पूर्व-प्रशिक्षित मॉडल:** YOLOv8 विभिन्न कार्यों और प्रदर्शन आवश्यकताओं के लिए एक विस्तृत पूर्व-प्रशिक्षित मॉडल रेंज प्रदान करता है, इससे अपने विशेषता उपयोग के लिए सही मॉडल खोजना आसान हो जाता है। - -## समर्थित कार्य और मोड - -YOLOv8 श्रृंखला वास्तविक समय वस्तुनिर्धारण के लिए विशेषकृत कई मॉडल प्रदान करती है। ये मॉडल विभिन्न आवश्यकताओं को पूरा करने के लिए डिजाइन किए गए हैं, वैश्विक स्तर पहुंचने से लेकर इंस्टेंस सेगमेंटेशन, पोज/किंतुमांक निर्धारण और श्रेणीकरण जैसे जटिल कार्यों तक। - -Yएक मॉडल के हर मानक, विशिष्ट कार्यों में अपनी विशेषताओं को ध्यान में रखते हुए, उच्च प्रदर्शन और सटीकता सुनिश्चित किए जाते हैं। इसके अलावा, ये मॉडल विभिन्न संचालन मोड के साथ अनुकूलित हैं जैसे [Inference](../modes/predict.md), [Validation](../modes/val.md), [Training](../modes/train.md), और [Export](../modes/export.md), जो उनका उपयोग वितरण और विकास के विभिन्न स्तरों में सरल बनाने में मदद करता है। - -| मॉडल | फ़ाइलनेम | कार्य | Inference | Validation | Training | Export | -|-------------|----------------------------------------------------------------------------------------------------------------|--------------------------------------------|-----------|------------|----------|--------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [वस्तुनिर्धारण](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [इंस्टेंस सेगमेंटेशन](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [पोज/किंतुमांक](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [श्रेणीबद्दीकरण](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -इस सारणी में YOLOv8 मॉडल विभिन्न कार्यों के लिए उपयुक्तता और विभिन्न संचालन मोड के साथ मॉडल के विभिन्न रूपों का अवलोकन प्रदान करती है। यह YOLOv8 श्रृंखला की व्याप्ति और मजबूती का प्रदर्शन करती है, जो कंप्यूटर दृष्टि में विभिन्न अनुप्रयोगों के लिए उपयुक्त बनाती है। - -## प्रदर्शन की मापदंड - -!!! Note "प्रदर्शन" - - === "वस्तुनिर्धारण (COCO)" - - [वस्तुनिर्धारण दस्तावेज़ीकरण](https://docs.ultralytics.com/tasks/detect/) पर उपयोग उदाहरण देखें जहां COCO ट्रेन किए गए [80 पूर्व-प्रशिक्षित वर्गों](https://docs.ultralytics.com/datasets/detect/coco/) के साथ ये मॉडल दिए गए हैं। - - | मॉडल | आकार
(पिक्स) | mAPवैल
50-95 | गति
CPU ONNX
(ms) | गति
A100 TensorRT
(ms) | params
(एम) | FLOPs
(बी) | - | ------------------------------------------------------------------------------------ | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - - === "वस्तुनिर्धारण (Open Images V7)" - - [वस्तुनिर्धारण दस्तावेज़ीकरण](https://docs.ultralytics.com/tasks/detect/) पर उपयोग उदाहरण देखें जहां इन मॉडलों को [Open Image V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/) पर ट्रेन किया गया है, जिसमें 600 पूर्व-प्रशिक्षित वर्ग हैं। - - | मॉडल | आकार
(पिक्स) | mAPवैल
50-95 | गति
CPU ONNX
(ms) | गति
A100 TensorRT
(ms) | params
(एम) | FLOPs
(बी) | - | ----------------------------------------------------------------------------------------- | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 | - - === "सेगमेंटेशन (COCO)" - - [सेगमेंटेशन दस्तावेज़ीकरण](https://docs.ultralytics.com/tasks/segment/) पर उपयोग उदाहरण देखें जहां इन मॉडलों को [COCO](https://docs.ultralytics.com/datasets/segment/coco/) पर ट्रेन किया गया है, जिसमें 80 पूर्व-प्रशिक्षित वर्ग हैं। - - | मॉडल | आकार
(पिक्स) | mAPबॉक्स
50-95 | mAPमास्क
50-95 | गति
CPU ONNX
(ms) | गति
A100 TensorRT
(ms) | params
(एम) | FLOPs
(बी) | - | -------------------------------------------------------------------------------------------- | --------------------- | --------------------- | --------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - - === "श्रेणीकरण (ImageNet)" - - [श्रेणीकरण दस्तावेज़ीकरण](https://docs.ultralytics.com/tasks/classify/) पर उपयोग उदाहरण देखें जहां इन मॉडलों को [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/) पर ट्रेन किया गया है, जिसमें 1000 पूर्व-प्रशिक्षित वर्ग हैं। - - | मॉडल | आकार
(पिक्स) | शीर्ष1 विजयी
योग्यता | शीर्ष5 विजयी
योग्यता | गति
CPU ONNX
(ms) | गति
A100 TensorRT
(ms) | params
(एम) | FLOPs
(बी) at 640 | - | ------------------------------------------------------------------------------------------ | --------------------- | ------------------------ | ------------------------ | ------------------------------ | ----------------------------------- | ------------------ | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - - === "पोज (COCO)" - - [पोज निर्धारण दस्तावेज़ीकरण](https://docs.ultralytics.com/tasks/pose/) पर उपयोग उदाहरण देखें जहां इन मॉडलों को [COCO](https://docs.ultralytics.com/datasets/pose/coco/) पर ट्रेन किया गया है, जिसमें 1 पूर्व-प्रशिक्षित वर्ग, 'person' शामिल है। - - | मॉडल | आकार
(पिक्स) | mAPशामिती
50-95 | mAPशामिती
50 | गति
CPU ONNX
(ms) | गति
A100 TensorRT
(ms) | params
(एम) | FLOPs
(बी) | - | ----------------------------------------------------------------------------------------------------- | --------------------- | ------------------------ | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -## उपयोग की उदाहरण - -यह उदाहरण सरल YOLOv8 प्रशिक्षण और निर्धारण उदाहरण प्रदान करता है। इन और अन्य [मोड](../modes/index.md) की पूरी दस्तावेज़ीकरण के लिए दस्तावेज़ पृष्ठों [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) और [Export](../modes/export.md) का उपयोग करें। - -इसे ध्यान दें कि नीचे दिए गए उदाहरण योलोवी [वस्तुनिर्धारण](../tasks/detect.md) मॉडल के लिए हैं। अतिरिक्त समर्थित कार्यों के लिए [Segment](../tasks/segment.md), [Classify](../tasks/classify.md) और [Pose](../tasks/pose.md) दस्तावेज़ीकरण देखें। - -!!! Example "उदाहरण" - - === "पायथन" - - पायटोर्च का पूर्व-प्रशिक्षित `*.pt` मॉडल और विन्यास `*.yaml` फ़ाइल पायटन में एक मॉडल नमूना बनाने के लिए `YOLO()` कक्षा को पारित किया जा सकता है: - - ```python - from ultralytics import YOLO - - # कोहली के COCO-pretrained YOLOv8n मॉडल को लोड करें - model = YOLO('yolov8n.pt') - - # मॉडल जानकारी दिखाएँ (वैकल्पिक) - model.info() - - # COCO8 उदाहरण डेटासेट पर 100 एपोक के लिए मॉडल को प्रशिक्षित करें - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg' छवि पर YOLOv8n मॉडल के साथ निर्धारण चलाएँ - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI कमांड को सीधे चलाने के लिए उपलब्ध हैं: - - ```bash - # COCO-pretrained YOLOv8n मॉडल को लोड करें और उसे COCO8 उदाहरण डेटासेट पर 100 एपोक के लिए प्रशिक्षित करें - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO-pretrained YOLOv8n मॉडल को लोड करें और 'bus.jpg' छवि पर निर्धारण चलाएँ - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## सन्दर्भ और पुरस्कार - -यदि आप अपने काम में YOLOv8 मॉडल या इस रिपॉजिटरी के किसी अन्य सॉफ़्टवेयर का उपयोग करते हैं, तो कृपया इसकी उद्धरण इस प्रकार करें: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {ग्लेन जोचर and आयुष चौरसिया and जिंग क्यू}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -कृपया ध्यान दें कि DOI लंबित है और जब यह उपलब्ध हो जाएगा तो उद्धरण में इसे शामिल किया जाएगा। YOLOv8 मॉडल [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) और [एंटरप्राइज](https://ultralytics.com/license) लाइसेंस के तहत उपलब्ध हैं। diff --git a/docs/hi/modes/benchmark.md b/docs/hi/modes/benchmark.md deleted file mode 100644 index 9187029cb8a..00000000000 --- a/docs/hi/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: Ultralytics YOLO के विभिन्न निर्यात प्रारूपों के जरिए YOLOv8 की गति और सटीकता का जांच करें; mAP50-95, accuracy_top5 माप, और अन्य मापों पर अनुभव प्राप्त करें। -keywords: Ultralytics, YOLOv8, बंचमार्किंग, गति प्रोफाइलिंग, सटीकता प्रोफाइलिंग, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, YOLO निर्यात प्रारूप ---- - -# उल्ट्राल्याटिक्स YOLO के साथ मॉडल बंचमार्किंग - -उल्ट्राल्याटिक्स YOLO पारिस्थितिकी और समावेश - -## परिचय - -जब आपका मॉडल प्रशिक्षित और सत्यापित हो जाता है, तो आगामी तार्किक चरण होता है कि तत्कालिक वास्तविक-दुनिया की स्थितियों में इसके प्रदर्शन का मूल्यांकन करें। Ultralytics YOLOv8 में बेंचमार्क मोड इस उद्देश्य की सेवा करता है, जहां उपयोगकर्ताओं को अपने मॉडल की गति और सटीकता का मूल्यांकन करने के लिए एक मजबूत ढांचा प्रदान करता है। - -## बंचमार्किंग क्यों महत्वपूर्ण है? - -- **जागरूक निर्णय:** गति और सटीकता के बीच ट्रेड-ऑफ के बारे में जानकारी प्राप्त करें। -- **संसाधन आवंटन:** अलग-अलग निर्यात प्रारूपों का विभिन्न हार्डवेयर पर कैसा काम करता है इसकी समझ पाएं। -- **अनुकूलन:** अपने विशिष्ट उपयोग मामले में सर्वोत्तम प्रदर्शन प्रदान करने वाला निर्यात प्रारूप कौन सा है, इसकी जानकारी प्राप्त करें। -- **लागत संचय:** बंचमार्क परिणामों के आधार पर हार्डवेयर संसाधनों का अधिक अभिकल्प सेवन करें। - -### बंचमार्क मोड में मुख्य माप - -- **mAP50-95:** वस्तु का पता लगाने, विभाजन करने और स्थिति मान के लिए। -- **accuracy_top5:** छवि वर्गीकरण के लिए। -- **परिन्दता समय:** प्रति छवि के लिए लिया गया समय मिलीसेकंड में। - -### समर्थित निर्यात प्रारूप - -- **ONNX:** CPU प्रदर्शन के लिए आदर्श -- **TensorRT:** अधिकतम GPU क्षमता के लिए -- **OpenVINO:** Intel हार्डवेयर संशोधन के लिए -- **CoreML, TensorFlow SavedModel, और अधिक:** विविध डिप्लॉयमेंट आवश्यकताओं के लिए। - -!!! Tip "युक्ति" - - * तकनीकी कारणों से कंप्यूटिंग संसाधनों का उपयोग करते समय ONNX या OpenVINO में निर्यात करें, ताकि आप CPU स्पीड तक upto 3x तक स्पीडअप कर सकें। - * GPU स्पीड तक अपने कंप्यूटिंग संसाधनों का उपयोग करते समय TensorRT में निर्यात करें ताकि आप तक 5x तक स्पीडअप कर सकें। - -## उपयोग उदाहरण - -समर्थित सभी निर्यात प्रारूपों पर ONNX, TensorRT आदि के साथ YOLOv8n बंचमार्क चलाएं। पूरी निर्यात विवरण के लिए नीचे Arguments अनुभाग देखें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # GPU पर बंचमार्क - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo बंचमार्क model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## Arguments - -`model`, `data`, `imgsz`, `half`, `device`, और `verbose` जैसे तर्क उपयोगकर्ताओं को मानदंडों को अपनी विशेष आवश्यकताओं के लिए सुगमता के साथ बंचमार्क को संशोधित करने की सुविधा प्रदान करते हैं, और विभिन्न निर्यात प्रारूपों के प्रदर्शन की तुलना करने की सुविधा प्रदान करते हैं। - -| कुंजी | मान | विवरण | -|-----------|------------|---------------------------------------------------------------------------------| -| `model` | `कोई नहीं` | मॉडल फ़ाइल का पथ, यानी yolov8n.pt, yolov8n.yaml | -| `data` | `कोई नहीं` | बेंचमार्किंग डेटासेट को संदर्भित करने वाले YAML फ़ाइल का पथ (val लेबल के तहत) | -| `imgsz` | `640` | छवि का आकार स्कैलर या (h, w) सूची, अर्थात (640, 480) | -| `half` | `असत्य` | FP16 माप्यांकन | -| `int8` | `असत्य` | INT8 माप्यांकन | -| `device` | `कोई नहीं` | चलाने के लिए युक्ति उपकरण, अर्थात cuda device=0 या device=0,1,2,3 या device=cpu | -| `verbose` | `असत्य` | त्रुटि में न जारी रखे (बूल), या वाल (फ्लोट) | - -## निर्यात प्रारूप - -बंचमार्क प्रयास होगा निम्नलिखित सभी संभावित निर्यात प्रारूपों पर स्वचालित रूप से चलाने की कोशिश करेगा। - -| प्रारूप | `प्रारूप` तर्क | मॉडल | मेटाडेटा | तर्क | -|--------------------------------------------------------------------|----------------|---------------------------|----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -पूर्ण निर्यात विवरण देखें निर्यात पृष्ठ में [Export](https://docs.ultralytics.com/modes/export/)। diff --git a/docs/hi/modes/export.md b/docs/hi/modes/export.md deleted file mode 100644 index 646b4394939..00000000000 --- a/docs/hi/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: सभी प्रकार के निर्यात स्तर पर YOLOv8 मॉडल्स को निर्यात करने के लिए आपके लिए चरण-दर-चरण मार्गदर्शिका। अब निर्यात की जांच करें! -keywords: YOLO, YOLOv8, Ultralytics, मॉडल निर्यात, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, निर्यात मॉडल ---- - -# Ultralytics YOLO के साथ मॉडल निर्यात - -यूल्ट्रालिक्स YOLO ecosystem and integrations - -## परिचय - -एक मॉडल की प्रशिक्षण की अंतिम लक्ष्य उसे वास्तविक दुनिया के आवेदनों के लिए तैनात करना होता है। उल्ट्रालिटीक्स YOLOv8 में निर्यात मोड में आपको अभिनवता रेंज के ऑप्शन प्रदान करता है, वायरले किए गए मॉडल को विभिन्न स्वरूपों में निर्यात करने के लिए, जिससे वे विभिन्न प्लेटफॉर्मों और उपकरणों पर प्रदर्शित किए जा सकें। यह व्यापक मार्गदर्शिका अधिकतम संगतता और प्रदर्शन प्राप्त करने के तरीकों को दिखाने का लक्ष्य रखती है। - -

-
- -
- देखें: अपने उत्पादन को निर्यात करने के लिए कस्टम प्रशिक्षित Ultralytics YOLOv8 मॉडल निर्यात करने और वेबकैम पर लाइव अनुमान चलाने। -

- -## YOLOv8 के निर्यात मोड को क्यों चुनें? - -- **विविधता:** ONNX, TensorRT, CoreML और अन्य सहित कई फॉर्मेट में निर्यात करें। -- **प्रदर्शन:** TensorRT में 5x जीपीयू स्पीडअप और ONNX या OpenVINO में 3x सीपीयू स्पीडअप प्राप्त करें। -- **संगतता:** अपने मॉडल को कई हार्डवेयर और सॉफ़्टवेयर पर संगठित करें। -- **उपयोग की सुविधा:** त्वरित और सीधी मॉडल निर्यात के लिए सरल CLI और Python API। - -### निर्यात मोड की प्रमुख विशेषताएं - -यहाँ कुछ मुख्य विशेषताएँ हैं: - -- **एक-क्लिक निर्यात:** अलग-अलग फॉर्मेट में निर्यात करने के लिए सरल कमांड। -- **बैच निर्यात:** बैच-इन्फरेंस क्षमता वाले मॉडलों को निर्यात करें। -- **सुधारित अनुमान:** निर्यात किए गए मॉडल अनुमान समय के लिए अनुकूलन किए जाते हैं। -- **ट्यूटोरियल वीडियो:** सुविधाएं और ट्यूटोरियल सुनिश्चित करने के लिए गहन मार्गदर्शिकाओं का उपयोग करें। - -!!! Tip "सुझाव" - - * 3x सीपीयू स्पीडअप के लिए ONNX या OpenVINO में निर्यात करें। - * 5x जीपीयू स्पीडअप के लिए TensorRT में निर्यात करें। - -## उपयोग उदाहरण - -YOLOv8n मॉडल को ONNX या TensorRT जैसे अलग फॉर्मेट में निर्यात करें। पूरी सूची निर्यात तर्कों के लिए नीचे दिए गए Arguments खंड को देखें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n.pt') # एक आधिकारिक मॉडल लोड करें - model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें - - # मॉडल निर्यात करें - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # आधिकारिक मॉडल का निर्यात करें - yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल का निर्यात करें - ``` - -## Arguments - -YOLO मॉडलों के निर्यात सेटिंग्स निर्यात के विभिन्न विन्यास और विकल्पों के बारे में होते हैं, जिन्हें यूज़ करके मॉडल को अन्य पर्यावरण या प्लेटफ़ॉर्म में सहेजने या निर्यात करने के लिए उपयोग किया जा सकता है। इन सेटिंग्स से मॉडल के प्रदर्शन, आकार और विभिन्न सिस्टम के साथ संगतता प्रभावित हो सकती हैं। कुछ सामान्य YOLO निर्यात सेटिंग्स में निर्यात की गई मॉडल फ़ाइल का स्वरूप (जैसे ONNX, TensorFlow SavedModel), मॉडल कोरी सहवास में चलाने वाली उपकरण (जैसे CPU, GPU) और मास्क या प्रत्येक बॉक्स पर कई लेबलों की उपस्थिति जैसे अतिरिक्त विशेषताएँ शामिल हो सकते हैं। निर्यात प्रक्रिया प्रभावित करने वाले अन्य कारकों में मॉडल द्वारा उपयोग के लिए एक विशेष कार्य और लक्षित पर्यावरण या प्लेटफ़ॉर्म की आवश्यकताओं या सीमाओं का ध्यान देना महत्वपूर्ण है। लक्ष्य प्रयोजन और लक्ष्यित वातावरण में प्रभावी ढंग से उपयोग होने के लिए इन सेटिंग्स को ध्यान से विचार करना महत्वपूर्ण है। - -| कुंजी | मान | विवरण | -|-------------|-----------------|------------------------------------------------------------------------| -| `format` | `'torchscript'` | योग्यता के लिए निर्यात करने के लिए स्वरूप | -| `imgsz` | `640` | एकल रूप में छवि का आकार या (h, w) सूची, जैसे (640, 480) | -| `keras` | `False` | TF SavedModel निर्यात के लिए केरस का प्रयोग करें | -| `optimize` | `False` | TorchScript: मोबाइल के लिए ऑप्टिमाइज़ करें | -| `half` | `False` | FP16 संगणना | -| `int8` | `False` | INT8 संगणना | -| `dynamic` | `False` | ONNX/TensorRT: गतिशील ध्यान दिलाने वाले ध्यान | -| `simplify` | `False` | ONNX/TensorRT: मॉडल को सरल बनाएं | -| `opset` | `None` | ONNX: ऑपसेट संस्करण (वैकल्पिक, डिफ़ॉल्ट्स को नवीनतम के रूप में छोड़ें) | -| `workspace` | `4` | TensorRT: कार्यक्षेत्र आकार (GB) | -| `nms` | `False` | CoreML: NMS जोड़ें | - -## निर्यात स्वरूप - -नीचे दिए गए तालिका में YOLOv8 निर्यात स्वरूप दिए गए हैं। आप किसी भी स्वरूप में निर्यात कर सकते हैं, जैसे `format='onnx'` या `format='engine'`। - -| स्वरूप | `format` तर्क | मॉडल | मेटाडाटा | तर्क | -|--------------------------------------------------------------------|---------------|---------------------------|----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/hi/modes/index.md b/docs/hi/modes/index.md deleted file mode 100644 index 9e49886c31c..00000000000 --- a/docs/hi/modes/index.md +++ /dev/null @@ -1,78 +0,0 @@ ---- -comments: true -description: प्रशिक्षण से ट्रैकिंग तक, Ultralytics के साथ YOLOv8 का अधिकतम लाभ उठाएं। मान्यता प्राप्त मोड, जैसे पुष्टीकरण, निर्यात और बेंचमार्किंग, के लिए अवधारणाओं और उदाहरण प्राप्त करें। -keywords: Ultralytics, YOLOv8, मशीन लर्निंग, ऑब्जेक्ट डिटेक्शन, प्रशिक्षण, पुष्टीकरण, पूर्वावलोकन, निर्यात, ट्रैकिंग, बेंचमार्किंग ---- - -# Ultralytics YOLOv8 मोड - -Ultralytics YOLO ecosystem and integrations - -## परिचय - -Ultralytics YOLOv8 सिर्फ एक ओब्जेक्ट डिटेक्शन मॉडल नहीं है; यह मशीन लर्निंग मॉडलों के पूर्ण जीवन चक्र के लिए एक विकशील फ्रेमवर्क है—डेटा संग्रह और मॉडल प्रशिक्षण से पुष्टीकरण, डिप्लॉयमेंट और वास्तविक दुनिया के ट्रैकिंग तक। प्रत्येक मोड का एक विशेष उद्देश्य होता है और आपको विभिन्न कार्यों और यूज-केस के लिए आवश्यक लचीलापन और कार्यक्षमता प्रदान करने के लिए बनाया जाता है। - -!!! Note "नोट" - - 🚧 हमारी बहुभाषीय दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कड़ी मेहनत कर रहे हैं। आपकी सहनशीलता के लिए धन्यवाद! 🙏 - -

-
- -
- देखें: Ultralytics मोड ट्यूटोरियल: प्रशिक्षण, पुष्टीकरण, पूर्वावलोकन, निर्यात और बेंचमार्किंग। -

- -### एक पल मोडें - -Ultralytics YOLOv8 के समर्थित **मोड** को समझना आपके मॉडल का अधिकतम उपयोग करने के लिए महत्वपूर्ण है: - -- **प्रशिक्षण** मोड: अपने मॉडल को कस्टम या पूर्व-भर्ती डेटासेट में संशोधित करें। -- **पुष्टीकरण** मोड: मॉडल प्रदर्शन को मान्यता प्राप्त करने के लिए प्रशिक्षण के बाद के चेकप्वाइंट का उपयोग करें। -- **पूर्वावलोकन** मोड: नए छवियों या वीडियो का उपयोग करके प्रशिक्षित YOLOv8 मॉडल के माध्यम से पूर्वानुमान करें। -- **निर्यात** मोड: डिप्लॉयमेंट के लिए मॉडल को विभिन्न प्रारूपों में तैयार करें। -- **ट्रैक** मोड: रीयल-टाइम ट्रैकिंग अनुप्रयोगों में योजित आइटम डिटेक्शन मॉडल का विस्तार करें। -- **बेंचमार्क** मोड: विविध डिप्लॉयमेंट वातावरणों में मॉडल की गति और सटीकता का विश्लेषण करें। - -यह सामग्री आपको प्रत्येक मोड का अवलोकन और व्यावहारिक अंदाज़ देने का उद्देश्य रखती है, जिससे आप YOLOv8 की पूरी क्षमता का उपयोग कर सकें। - -## [प्रशिक्षण](train.md) - -प्रशिक्षण मोड का उपयोग कस्टम डेटासेट पर YOLOv8 मॉडल के प्रशिक्षण के लिए किया जाता है। इस मोड में, मॉडल को निर्दिष्ट डेटासेट और हाइपरपैरामीटर का उपयोग करके प्रशिक्षित किया जाता है। प्रशिक्षण प्रक्रिया में, मॉडल के पैरामीटरों को अनुकूलित किया जाता है ताकि यह छवियों में ऑब्जेक्टों की कक्षाओं और स्थानों का सटीक पूर्वानुमान कर सके। - -[प्रशिक्षण उदाहरण](train.md){ .md-button } - -## [पुष्टीकरण](val.md) - -पुष्टीकरण मोड का उपयोग YOLOv8 मॉडल के प्रशिक्षण के बाद मॉडल की मान्यता और सामान्यीकरण प्रदर्शन को मापने के लिए किया जाता है। इस मोड में, मॉडल को एक प्रमाणीकरण सेट पर मूल्यांकन किया जाता है ताकि उसकी सटीकता और सामान्यीकरण प्रदर्शन को मापा जा सके। इस मोड का उपयोग मॉडल के प्रदर्शन को सुधारने के लिए मॉडल के हाइपरपैरामीटरों को ट्यून करने के लिए किया जा सकता है। - -[पुष्टीकरण उदाहरण](val.md){ .md-button } - -## [पूर्वानुमान](predict.md) - -पूर्वानुमान मोड का उपयोग नई छवियों या वीडियो पर प्रशिक्षित YOLOv8 मॉडल का उपयोग करके पूर्वानुमान बनाने के लिए किया जाता है। इस मोड में, मॉडल एक चेकप्वाइंट फ़ाइल से लोड किया जाता है, और उपयोगकर्ता छवियों या वीडियों को उपयोग करके इन्फेरेंस कर सकता है। मॉडल उपयोगकर्ता को इनपुट छवियों या वीडियों में ऑब्जेक्टों की कक्षाओं और स्थानों का पूर्वानुमान करता है। - -[पूर्वानुमान उदाहरण](predict.md){ .md-button } - -## [निर्यात](export.md) - -निर्यात मोड का उपयोग एक YOLOv8 मॉडल को इस्तेमाल करने के लिए एक प्रारूप में करने के लिए किया जाता है जो कि अन्य सॉफ़्टवेयर अनुप्रयोगों या हार्डवेयर उपकरणों द्वारा इस्तेमाल किया जा सकता है। यह मोडल को उत्पादन उद्योगों में डिप्लॉय करने के लिए उपयोगी होता है। - -[निर्यात उदाहरण](export.md){ .md-button } - -## [ट्रैक](track.md) - -ट्रैक मोड का उपयोग एक YOLOv8 मॉडल का उपयोग करके वास्तविक समय में वस्तुओं का ट्रैकिंग करने के लिए किया जाता है। इस मोड में, मॉडल एक चेकप्वाइंट फ़ाइल से लोड किया जाता है, और उपयोगकर्ता एक लाइव वीडियो स्ट्रीम प्रदान कर सकता है ताकि वास्तविक समय में वस्तुओं का ट्रैकिंग किया जा सके। यह मोड सतर्कता प्रणालियों या स्वयं चालित कार जैसे अनुप्रयोगों के लिए उपयोगी होता है। - -[ट्रैक उदाहरण](track.md){ .md-button } - -## [बेंचमार्क](benchmark.md) - -बेंचमार्क मोड का उपयोग YOLOv8 के विभिन्न निर्यात प्रारूपों की गति और सटीकता का प्रोफ़ाइल बनाने के लिए किया जाता है। बेंचमार्क से प्राप्त जानकारी निर्यात प्रारूप के आकार, उसकी `mAP50-95` metric (ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और पोज़ के लिए) -या `accuracy_top5` metric (वर्गीकरण के लिए), और चित्र माध्यमिक समय के मिलीसेकंड प्रति इमेज के अलग-अलग निर्यात प्रारूपों की जानकारी प्रदान करता है। यह जानकारी उपयोगकर्ताओं को उनकी विशेष उपयोग के मामले में उनकी खासियतों के लिए मिति और सटीकता के लिए सर्वोत्तम निर्यात प्रारूप का चयन करने में मदद कर सकती है। - -[बेंचमार्क उदाहरण](benchmark.md){ .md-button } diff --git a/docs/hi/modes/predict.md b/docs/hi/modes/predict.md deleted file mode 100644 index 86c3a04e689..00000000000 --- a/docs/hi/modes/predict.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: योलोवी 8 के अल्ट्रालायटिक्स पूर्वानुमान मोड का उपयोग करना सीखें और विभिन्न कार्यों के लिए विभिन्न पूर्वानुमान स्रोतों के बारे में जानें। इमेजेस, वीडियोज़ और डेटा प्रारूपों जैसे पूर्वानुमान स्रोतों के बारे में जानें। -keywords: Ultralytics, YOLOv8, पूर्वानुमान मोड, पूर्वानुमान स्रोत, पूर्वानुमान कार्य, धारणा योजना, छवि प्रसंस्करण, वीडियो प्रसंस्करण, मशीन लर्निंग, एआई ---- - -# अल्ट्रालायटिक्स YOLO मॉडल पूर्वानुमान - -अल्ट्रालायटिक्स YOLO संघटना और एकीकरण - -## परिचय - -मशीन लर्निंग और कंप्यूटर विजन की दुनिया में दृश्यांश से समझने की प्रक्रिया को 'पूर्वानुमान' या 'पूर्वानुमान' कहा जाता है। अल्ट्रालायटिक्स YOLOv8 एक शक्तिशाली विशेषता प्रदान करता है जिसे **पूर्वानुमान मोड** कहा जाता है, जो व्यापक डेटा स्रोतों पर उच्च प्रदर्शन, वास्तुकालिक पूर्वानुमान के लिए विशेष रूप से तैयार किया गया है। - -

-
- -
- देखें: अल्ट्रालायटिक्स YOLOv8 मॉडल से आउटपुट निकालने का तरीका कस्टम परियोजनाओं के लिए। -

- -## वास्तविक जगत में अनुप्रयोग - -| विनिर्माण | खेल संघ | सुरक्षा | -|:-------------------------------------------:|:--------------------------------------------------:|:---------------------------------------------:| -| ![वाहन के पुर्जे डिटेक्शन][car spare parts] | ![फुटबॉल खिलाड़ी डिटेक्शन][football player detect] | ![लोगों का गिरना डिटेक्शन][human fall detect] | -| वाहन के पुर्जे डिटेक्शन | फुटबॉल खिलाड़ी डिटेक्शन | लोगों का गिरना | - -## पूर्वानुमान के लिए अल्ट्रालायटिक्स YOLO का उपयोग क्यों करें? - -यहां आपको योलोवी 8 के पूर्वानुमान मोड का उपयोग अपने विभिन्न पूर्वानुमान की आवश्यकताओं के लिए करना चाहिए का कारण है: - -- **बहुमुखीपन:** छवियों, वीडियोज और यह तक कि लाइव स्ट्रीम की पूर्वानुमान पर योग्य हैं। -- **प्रदर्शन:** मुख्यतः बिना सटीकता पर बलवर्धित, रियल-टाइम, उच्च गति प्रसंस्करण के लिए engineering किए गए हैं। -- **उपयोग सहज:** खद्य पाइथन और यथार्थता (CLI) इंटरफ़ेसों को जल्दी विपणन और परीक्षण के लिए। -- **ऊच्चतम अनुकूलनयोग्यता:** अपनी विशिष्ट आवश्यकताओं के अनुसार मॉडल के पूर्वानुमान कृति को निर्धारित करने के लिए विभिन्न सेटिंग और पैरामीटर। - -### पूर्वानुमान मोड की प्रमुख सुविधाएँ - -YOLOv8 का पूर्वानुमान मोड मजबूत और विशेषता प्राप्त करने के लिए डिज़ाइन किया गया है, जिसमें शामिल हैं: - -- **यदि आपके डेटा के कई स्रोतों के पंजीकरण:** चाहे आपका डेटा व्यक्तिगत छवियों, छोटू माला छवियों, वीडियो फ़ाइलों या वास्तविक समय वीडियो स्ट्रीमों की रूप में हो, पूर्वानुमान मोड आपके लिए उपयुक्त है। -- **स्ट्रीमिंग मोड:** `स्ट्रीमिंग` सुविधाका उपयोग करें और `पूर्वानुमान की कॉल विधि` में `स्ट्रीम = ट्रू` सेट करके `रिजल्ट्स` ऑब्जेक्ट के एक मेमोरी-पर्याप्त जेनरेटर का उत्पादन करें। -- **बैच प्रोसेसिंग:** एक ही बैच में कई छवियों या वीडियो फ़्रेम्स की प्रोसेसिंग करने की क्षमता, पूर्वानुमान समय को और तेज़ करती है। -- **इंटीग्रेशन फ्रेंडली:** लचीली API के कारण मौजूदा डेटा पाईपलाइन और अन्य सॉफ़्टवेयर घटकों के साथ आसानी से इंटीग्रेट करें। - -जब पूर्वानुमान के दौरान मॉडल को `गेनरेटर की `रूप में लोड किया जाता है, तो अल्ट्रालायटिक्स YOLO मॉडल निम्नलिखित मेथड से `रिजल्ट` ऑब्जेक्ट के एक पायथन सूची या यादृच्छिक संख्यकारी जनरेटर लौटाते हैं: - -!!! Example "पूर्वानुमान" - - === "`स्ट्रीम = फाल्स` के साथ सूची यादृच्छिक" - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n.pt') # पूर्व-प्रशिक्षित YOLOv8n मॉडल - - # सूची के लिए बैच्ड पूर्वानुमान चलाएं - results = model(['im1.jpg', 'im2.jpg']) # रिजल्ट्स ऑब्जेक्ट की सूची लौटाएँ - - # परिणाम सूची को प्रोसेस करें - for result in results: - boxes = result.boxes # बॉक्स के लिए बॉक्स ऑब्जेक्ट - masks = result.masks # सेगमेंटेशन मोड के लिए मास्क्स ऑब्जेक्ट - keypoints = result.keypoints # पोज़ के लिए कीपॉइंट्स ऑब्जेक्ट - probs = result.probs # वर्गीकरण के लिए प्रोब्स ऑब्जेक्ट - ``` - - === "`स्ट्रीम = ट्रू के साथ जेनरेटर` की प्राथमिकता" - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n.pt') # पूर्व-प्रशिक्षित YOLOv8n मॉडल - - # सूची के लिए बैच्ड पूर्वानुमान चलाएं - results = model(['im1.jpg', 'im2.jpg'], stream=True) # रिजल्ट्स ऑब्जेक्ट का जनरेटर लौटाएँ - - # रिजल्ट्स जनरेटर को प्रोसेस करें - for result in results: - boxes = result.boxes # बॉक्स के लिए बॉक्स ऑब्जेक्ट - masks = result.masks # सेगमेंटेशन मास्क्स के लिए मास्क्स ऑब्जेक्ट - keypoints = result.keypoints # पोज़ के लिए कीपॉइंट्स ऑब्जेक्ट - probs = result.probs # वर्गीकरण के लिए प्रोब्स ऑब्जेक्ट - ``` - -## पूर्वानुमान स्रोत - -YOLOv8 पूर्वानुमान के लिए विभिन्न प्रकार के इनपुट स्रोतों को process कर सकता है, जैसा कि नीचे दिए गए तालिका में दिखाया गया है। स्रोतों में स्थिर छवियाँ, वीडियो स्ट्रीम्स, और विभिन्न डेटा प्रारूपों को विकास के साथ उपयोग किया जा सकता है। यह तालिका भी इंगित करती है कि क्या प्रत्येक स्रोत को स्ट्रीमिंग मोड में `द्वारा इस्तेमाल किया जा सकता है।' यहां स्ट्रीमिंग मोड का उपयोग वीडियो या लाइव स्ट्रीम को प्रोसेस करने के लिए उपयोगी है क्योंकि इसमें सभी फ्रेम्स को मेमोरी में लोड किए बिना एक रिजल्ट की generator बनाई जाती है। - -!!! Tip "सुझाव" - - `स्ट्रीम = ट्रू` का उपयोग बड़ी वीडियोज़ या विशाल डेटासेट को संचालित करने के लिए करें ताकि मेमोरी का दक्षिणा प्रबंधित किया जा सके। `स्ट्रीम = फाल्स` के खंड के खंड में सभी फ्रेम्स या डेटा बिंदुओं के लिए परिणाम स्तोर किए जाते हैं, जो अधिकांशता में मेमोरी में लोड हो सकते हैं और बड़े इनपुट के लिए आउट-ऑफ-मेमोरी त्रुटियां उत्पन्न कर सकते हैं। इसके बराबर उपयोग करके `स्ट्रीम= True` एक जेनरेटर का उपयोग करता है, जिसके संचित होने वाले - -केवल ब्रह्मण्ड के परिणामों को सीमित संग्रह किया जाता है, बहुत कम मेमोरी खपत करता है और बड़े इनपुट के लिए आउट ऑफमेमोरीनुमान syllabus नुकसान होने से बचाता है। - -| स्रोत | तर्क | प्रकार | टिप्पणियाँ | -|-----------------|-------------------------------------------|---------------|-------------------------------------------------------------------------------------------------------------| -| छवि | `'छवि.जेपीजी'` | `श. या पथ` | एकल छवि फ़ाइल। | -| यूआरएल | `'https://ultralytics.com/छवि/बस.जेपीजी'` | `शः` | छवि होस्टेड रिमोटली उन्नत करने के लिए यूआरएल । | -| स्क्रीनशॉट | `'स्क्रीन'` | `शः` | स्क्रीन की वर्तमान सामग्री के रूप में कैप्चर । | -| आदर्श | `इमेज.ओपन('चित्र.जेपीजी')` | `पीआईएल.इमेज` | HWC format with RGB channels। | -| ओपनसीवी | `ओपेंसीवी.इमरेड('चित्र.जेपीजी')` | `एनपी.न्डआरे` | HWC format with BGR channels `uint8 (0-255)`। | -| नम्पी | `नपाई.जीरोस((640,1280,३))` | `एनपी.नडअरे` | HWC format with BGR channels `uint8 (0-255)`। | -| टॉर्च | `टॉर्च.जीरोस(16,3,320,640)` | `टॉर्च.टेंसर` | BCHW format with RGB channels `float32 (0.0-1.0)`। | -| सीएसवी | `'स्रोत.सीएसवी'` | `शः` or `पथ` | छवियों, वीडियोज़, या निर्देशिकाओं की पथों को समेटने वाली CSV फ़ाइल। | -| वीडियो ✅ | `'वीडियो.म्प४'` | `पथ` or `पथ` | MP4, AVI, आदि जैसे वीडियो फ़ाइल में वीडियो। | -| निर्देशिका ✅ | `'पथ/'` | `शः` or `पथ` | छवियों या वीडियोज़ को समेटने वाली एक निर्देशिका का पथ। | -| ग्लॉब ✅ | `'पथ/ *.जेपीजी'` | `शः` | एकाधिक फ़ाइलों के मिलते-जुलते गोलियाँ। वाइल्डकार्ड के रूप में `*` चरित्र का उपयोग करें। | -| यूट्यूब ✅ | `'https://youtu.be/LNwODJXcvt4'` | `शः` | एक यूट्यूब वीडियो के लिए यूआरएल। | -| स्ट्रीम ✅ | `'rtsp://माद्यदिनता.कॉम/media.म्प४'` | `शः` | RTSP, RTMP, TCP या IP पते जैसे स्ट्रीमिंग प्रोटोकॉल्स के लिए पता। | -| मल्टी-स्ट्रीम ✅ | `'सूची.स्ट्रीम्स'` | `शः` or `पथ` | प्रति पंक्ति एक स्ट्रिम URL के साथ `*.streams` पाठ फ़ाइल, उदाहरण के लिए 8 स्ट्रीम 8 बैच-आकार के साथ चलेंगे। | - -लेखक आदान प्रियतमानसों का सुझाव देते हैं: - -!!! Example "पूर्वानुमान स्रोत" - - === "छवि" - एक छवि फ़ाइल पर पूर्वानुमान चलाएं। - ```python - from ultralytics import YOLO - - # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # छवि फ़ाइल के लिए पथ निर्धारित करें - स्रोत = 'फाईल/पर/चित्र.jpg' - - # छवि पर पूर्वानुमान चलाएं - परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची - - # परिणाम सूची को प्रोसेस करें - for परिणाम in परिणाम: - बॉक्स = परिणाम.बॉक्स # बॉक्स आउटपुट्स के लिए बॉक्स ऑब्जेक्ट - मास्क्स = परिणाम.मास्क्स # सेगमेंटेशन मास्क्स आउटपुट्स के लिए मास्क्स ऑब्जेक्ट - कीपॉइंट्स = परिणाम.कीपॉइंट्स # पोज के लिए कीपॉइंट्स ऑब्जेक्ट - प्रोब्स = परिणाम.प्रोब्स # वर्गीकरण आउटपुट्स के लिए प्रोब्स ऑब्जेक्ट - ``` - - === "स्क्रीनशॉट" - वर्तमान स्क्रीन सामग्री पर पूर्वानुमान चलाएं। - ```python - from ultralytics import YOLO - - # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # वर्तमान स्क्रीन सामग्री को स्रोत रूप में परिभाषित करें - स्रोत = 'स्क्रीन' - - # वर्तमान सामग्री पर पूर्वानुमान चलाएं - परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची - ``` - - === "यूआरएल" - दूरस्थ छवि या वीडियो पर पूर्वानुमान चलाएं। - ```python - from ultralytics import YOLO - - # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # गहनर् रूप से निर्धारित दूरस्थ छवि या वीडियो की यूआरएल - स्रोत = 'https://ultralytics.com/छवि/बस.जेपीजी' - - # यूआरएल पर पूर्वानुमान चलाएं - परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची - ``` - - === "आदर्श" - Python Imaging Library (PIL) के साथ खोली गई छवि पर पूर्वानुमान चलाएं। - ```python - from PIL import Image - from ultralytics import YOLO - - # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # Python Imaging Library (PIL) के साथ खोली गई छवि - स्रोत = Image.open('छवि.जेपीजी') - - # आदर्श पर पूर्वानुमान चलाएं - परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची - ``` - - === "ओपेंसीवी" - OpenCV के साथ पढ़ी गई छवि पर पूर्वानुमान चलाएं। - ```python - import cv2 - from ultralytics import YOLO - - # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # OpenCV के साथ पढ़ी गई छवि - स्रोत = cv2.imread('छवि.जेपीजी') - - # ओपेंसीवी पर पूर्वानुमान चलाएं - परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची - ``` - - === "नम्पी" - numpy array के रूप में प्रस्तुत छवि पर पूर्वानुमान चलाएं। - ```python - import numpy as np - from ultralytics import YOLO - - # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # छवि रूप में एक हिंदी छवि को बनाएँ - स्रोत = np.zeros((640, 640, 3)) - - # नम्पी पर पूर्वानुमान चलाएं - परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची - ``` - -[वाहन के पुर्जे डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1 - -[फुटबॉल खिलाड़ी डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442 - -[लोगों का गिरना डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43 diff --git a/docs/hi/modes/track.md b/docs/hi/modes/track.md deleted file mode 100644 index 7f5773f0eb3..00000000000 --- a/docs/hi/modes/track.md +++ /dev/null @@ -1,358 +0,0 @@ ---- -comments: true -description: वीडियो स्ट्रीम में आवक ट्रेक करने के लिए Ultralytics YOLO का उपयोग कैसे करें। ट्रैकर्स का उपयोग करने और ट्रैकर कॉन्फ़िगरेशन को अनुकूलित करने के लिए गाइड। -keywords: Ultralytics, YOLO, आवक ट्रैकिंग, वीडियो स्ट्रीम, BoT-SORT, ByteTrack, पायथन गाइड, CLI गाइड ---- - -# Ultralytics YOLO के साथ मल्टी-ऑब्जेक्ट ट्रैकिंग - -Multi-object tracking examples - -वीडियो एनालिटिक्स के क्षेत्र में, ऑब्जेक्ट ट्रैकिंग एक महत्वपूर्ण कार्य है जो केवल फ्रेम में वस्तुओं के स्थान और वर्ग की पहचान करने के अलावा वीडियो के प्रगति के साथ-साथ प्रत्येक खोजी गई वस्तु के लिए एक अद्वितीय आईडी बनाए रखता है। इसके अनुप्रयोग हैं असीमित—निगरानी और सुरक्षा से लेकर रियल-टाइम स्पोर्ट्स एनालिटिक्स तक। - -## ऑब्जेक्ट ट्रैकिंग के लिए Ultralytics YOLO क्यों चुनें? - -Ultralytics ट्रैकरों से उत्पन्न परिणाम मानक ऑब्जेक्ट डिटेक्शन के साथ मेल खाते हैं, लेकिन वीडियो स्ट्रीम में ऑब्जेक्टों को ट्रैक करने और उपयोगी गणना करने में आसान हो जाता है। यहाँ आपको Ultralytics YOLO का उपयोग अपनी ऑब्जेक्ट ट्रैकिंग की जरूरतों के लिए करने की सलाह दी जा रही है: - -- **प्रदर्शनशीलता:** सटीकता के मामले में समय-सत्य ही होने के साथ वीडियो स्ट्रीम को प्रक्रिया करें। -- **लचीलापन:** विभिन्न ट्रैकिंग ऍल्गोरिदम और विन्यास पर समर्थन करें। -- **उपयोग करने में आसानी:** झटपट एकीकरण और डिप्लॉय करने के लिए सरल पायथन API और CLI विकल्प। -- **कस्टमाइज़ेबिलिटी:** कस्टम ट्रेन किए गए YOLO मॉडल के साथ उपयोग में आसान, जिससे डोमेन-विशिष्ट एप्लिकेशन में समावेश करना संभव होता है। - -

-
- -
- देखें: Ultralytics YOLOv8 के साथ ऑब्जेक्ट डिटेक्शन और ट्रैकिंग। -

- -## वास्तविक दुनिया के अनुप्रयोग - -| परिवहन | खुदराबाज़ार | जलजीवाणुजनित उत्पादन | -|:-------------------------------:|:-----------------------------:|:----------------------------:| -| ![वाहन ट्रैकिंग][vehicle track] | ![लोग ट्रैकिंग][people track] | ![मछली ट्रैकिंग][fish track] | -| वाहन ट्रैकिंग | लोग ट्रैकिंग | मछली ट्रैकिंग | - -## विशेषताएँ एक झलक में - -Ultralytics YOLO अपनी ऑब्जेक्ट डिटेक्शन विशेषताओं को बढ़ाकर मज़बूत और बहुमुखी ऑब्जेक्ट ट्रैकिंग प्रदान करता है: - -- **रीयल-टाइम ट्रैकिंग:** उच्च फ्रेम दर वाले वीडियो में समयबद्ध रूप से ऑब्जेक्ट्स को ट्रैक करें। -- **एकाधिक ट्रैकर समर्थन:** इस्थापित ट्रैकिंग ऍल्गोरिदमों में से एक चुनें। -- **कस्टमाइज़ेबल ट्रैकर कॉन्फ़िगरेशन:** विभिन्न पैरामीटर्स को समायोजित करके विशेष आवश्यकताओं को पूरा करने के लिए ट्रैकिंग ऍल्गोरिदम को अनुकूलित करें। - -## उपलब्ध ट्रैकर्स - -Ultralytics YOLO निम्नलिखित ट्रैकिंग ऍल्गोरिदमों का समर्थन करता है। आप इन्हें योग्य YAML कॉन्फ़िगरेशन फ़ाइल (`tracker=tracker_type.yaml`) पारित करके सक्षम कर सकते हैं: - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - इस ट्रैकर को सक्षम करने के लिए `botsort.yaml` का उपयोग करें। -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - इस ट्रैकर को सक्षम करने के लिए `bytetrack.yaml` का उपयोग करें। - -डिफ़ॉल्ट ट्रैकर BoT-SORT है। - -## ट्रैकिंग - -वीडियो स्ट्रीम्स पर ट्रैकर चलाने के लिए, YOLOv8n, YOLOv8n-seg और YOLOv8n-pose जैसे प्रशिक्षित Detect, Segment या Pose मॉडल का उपयोग करें। - -!!! Example "उदाहरण" - - === "पायथन" - - ```python - from ultralytics import YOLO - - # एक आधिकारिक या कस्टम मॉडल लोड करें - model = YOLO('yolov8n.pt') # एक आधिकारिक Detect मॉडल लोड करें - model = YOLO('yolov8n-seg.pt') # एक आधिकारिक Segment मॉडल लोड करें - model = YOLO('yolov8n-pose.pt') # एक आधिकारिक Pose मॉडल लोड करें - model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें - - # मॉडल के साथ ट्रैकिंग करें - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # डिफ़ॉल्ट ट्रैकर के साथ ट्रैकिंग करें - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # ByteTrack ट्रैकर के साथ ट्रैकिंग करें - ``` - - === "CLI" - - ```बैश - # CLI के साथ विभिन्न मॉडल के साथ ट्रैकिंग करें - योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक डिटेक्ट मॉडल - योलो ट्रैक मॉडल=yolov8n-seg.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक सेगमेंट मॉडल - योलो ट्रैक मॉडल=yolov8n-pose.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक पोज मॉडल - योलो ट्रैक मॉडल=path/to/best.pt स्रोत="https://youtu.be/LNwODJXcvt4" # कस्टम प्रशिक्षित मॉडल - - # ByteTrack ट्रैकर का उपयोग करें - योलो ट्रैक मॉडल=path/to/best.pt ट्रैकर="bytetrack.yaml" - ``` - -ऊपर के उपयोग में उंगलियों के निचले हिस्से के द्वारा ट्रैकिंग उपलब्ध है सभी डिटेक्ट, सेगमेंट और पोज मॉडल्स के लिए जो वीडियो या स्ट्रीमिंग स्रोत पर चला जा सकते हैं। - -## कॉन्फ़िगरेशन - -### ट्रैकिंग आर्ग्युमेंट्स - -ट्रैकिंग कॉन्फ़िगरेशन, जैसे कि `conf`, `iou` और `show`, ने प्रेडिक्शन मोड के साथ गुणों को साझा करता है। और विन्यास करने के लिए, कृपया [प्रेडिक्शन](../modes/predict.md#inference-arguments) मॉडल पृष्ठ पर संदर्भ करें। - -!!! Example "उदाहरण" - - === "पायथन" - - ```python - from ultralytics import YOLO - - # ट्रैकिंग पैरामीटर आवंटन करें और ट्रैकर चलाएं - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```बैश - # कमांड लाइन इंटरफेस का उपयोग करें ट्रैकिंग पैरामीटर कॉन्फ़िगर करें और ट्रैकर चलाएं - योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### ट्रैकर चयन - -Ultralytics आपको एक संशोधित ट्रैकर कॉन्फ़िगरेशन फ़ाइल का उपयोग करने की भी अनुमति देता है। ऐसा करने के लिए, बस [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) से एक ट्रैकर कॉन्फ़िगरेशन फ़ाइल (जैसे `custom_tracker.yaml`) की एक प्रतिलिपि बनाएँ और किसी भी विन्यास को संशोधित करें ( `tracker_type` को छोड़कर) अपनी जरूरतों के अनुसार। - -!!! Example "उदाहरण" - - === "पायथन" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें और एक कस्टम कॉन्फ़िगरेशन फ़ाइल के साथ ट्रैकर चलाएं - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```बैश - # ट्रैकर के साथ एक कस्टम कॉन्फ़िगरेशन फ़ाइल का उपयोग करके मॉडल लोड करें और ट्रैकर चलाएं - योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -ट्रैकिंग आर्ग्युमेंट्स की एक व्यापक सूची के लिए, [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) पेज पर संदर्भ करें। - -## पायथन उदाहरण - -### ट्रैक पर्सिस्ट करना - -यहाँ एक Python स्क्रिप्ट है जो OpenCV (`cv2`) और YOLOv8 का उपयोग करके वीडियो फ़्रेम पर ऑब्जेक्ट ट्रैकिंग चलाने के लिए है। इस स्क्रिप्ट में यह मान लिया गया है कि आपने पहले ही आवश्यक पैकेज (`opencv-python` और `ultralytics`) इंस्टॉल कर लिए हैं। `persist=True` आर्ग्युमेंट ये ट्रैकर को बताता है कि मौजूदा इमेज या फ़्रेम उन अनुसरण तथ्यों के लिए होता है जो पिछले इमेज में से बनाए गए होते हैं। - -!!! Example "ट्रैकिंग के लिए स्ट्रीमिंग फ़ोर-लूप" - - ```python - import cv2 - from ultralytics import YOLO - - # YOLOv8 मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # वीडियो फ़ाइल खोलें - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # वीडियो फ़्रेम्स पर लूप चलाएं - while cap.isOpened(): - # वीडियो से एक फ्रेम पढ़ें - success, frame = cap.read() - - if success: - # फ्रेम पर YOLOv8 ट्रैकिंग चलाएं, फ़्रेम के बीच ट्रैक पर्सिस्ट करता है - results = model.track(frame, persist=True) - - # परिणामों को फ़्रेम पर दिखाएं - annotated_frame = results[0].plot() - - # ट्रैक करें फ़्रेम को प्रदर्शित करें - cv2.imshow("YOLOv8 ट्रैकिंग", annotated_frame) - - # 'q' दबाएं तो फ़्रेम से बाहर निकलें - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # वीडियो के अंत तक पहुँचने पर भी फ़्रेम से बाहर निकलें - break - - # वीडियो कैप्चर ऑब्जेक्ट छोड़ें और प्रदर्शन विंडो बंद करें - cap.release() - cv2.destroyAllWindows() - ``` - -मैने फ़्रेम से ट्रैकिंग के लिए 'model(frame)' से 'model.track(frame)' में बदलाव किया है, जो साधारण डिटेक्शन की बजाय ऑब्जेक्ट ट्रैकिंग को सक्षम करता है। यह संशोधित स्क्रिप्ट प्रति फ़्रेम वाली वीडियो पर ट्रैकर चलाएगा, परिणामों को दिखाएगा और एक विंडो में दिखाएगा। 'q' दबाने पर फ़्रेम से बाहर निकला जा सकता है। - -### समय के साथ ट्रैक चित्रित करना - -संबंधित वीडियो फ्रेम पर ऑब्जेक्ट ट्रैक्स को प्लॉट करके समान्तर स्थानीय मार्गों को प्रदर्शित करने से हमें चित्रित पथ के माध्यम से पहले के अंतरालों और पतों की आपूर्ति में मूल्यवान प्रेरणा मिल सकती है। Ultralytics YOLOv8 के साथ समय के साथ ट्रैक्स को प्लॉट करना एक चुस्त और कुशल प्रक्रिया है। - -निम्न उदाहरण में, हम दिखाए गए वीडियो फ्रेम्स पर YOLO मॉडल का उपयोग करके विभिन्न ऑब्जेक्ट की गति को चित्रित करने के लिए कैसे करेंगे। यह स्क्रिप्ट एक वीडियो फ़ाइल को खोलता है, फ्रेम दर फ्रेम यह पढ़ता है, और YOLO मॉडल का उपयोग करके विभिन्न ऑब्जेक्ट की पहचान और ट्रैक करता है। पहचान वाले बॉक्स के केंद्रीय प्रांक्तियों को संवेदी करके उन्हें जोड़ते हैं, हम ट्रैक किए गए वस्तुओं द्वारा फ़ालतू की जगहों को चूंकियों का संग्रहित करने के लिए लाइनें खींच सकते हैं। - -!!! Example "कई वीडियो फ़्रेम्स पर पथ चित्रित करना" - - ```python - from collections import defaultdict - - import cv2 - import numpy as np - - from ultralytics import YOLO - - # YOLOv8 मॉडल लोड करें - model = YOLO('yolov8n.pt') - - # वीडियो फ़ाइल खोलें - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # ट्रैक इतिहास को संग्रहीत करें - track_history = defaultdict(lambda: []) - - # वीडियो फ्रेम्स पर लूप चलाएं - while cap.isOpened(): - # वीडियो से एक फ्रेम पढ़ें - success, frame = cap.read() - - if success: - # फ्रेम पर YOLOv8 ट्रैकिंग चलाएं, फ़्रेम के बीच ट्रैक पर्सिस्ट करता है - results = model.track(frame, persist=True) - - # बॉक्स और ट्रैक आईडी प्राप्त करें - boxes = results[0].boxes.xywh.cpu() - track_ids = results[0].boxes.id.int().cpu().tolist() - - # रिज़ल्ट पर विजुअलाइज़ करें - annotated_frame = results[0].plot() - - # पथ चित्रित करें - for box, track_id in zip(boxes, track_ids): - x, y, w, h = box - track = track_history[track_id] - track.append((float(x), float(y))) # x, y centre point - if len(track) > 30: # 90 फ़्रेम्स के लिए 90 ट्रैक्स को जमा करें - track.pop(0) - - # ट्रैकिंग लाइनें खींचें - points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2)) - cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10) - - # पथ को प्रदर्शित करें - cv2.imshow("YOLOv8 ट्रैकिंग", annotated_frame) - - # 'q' दबायें तो फ़्रेम से बाहर निकलें - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # वीडियो के अंत तक पहुँचने पर भी फ़्रेम से बाहर निकलें - break - - # वीडियो कैप्चर ऑब्जेक्ट छोड़ें और प्रदर्शन विंडो बंद करें - cap.release() - cv2.destroyAllWindows() - ``` - -### मल्टीथ्रेड ट्रैकिंग - -मल्टीथ्रेड ट्रैकिंग एक साथ कई वीडियो स्ट्रीमों पर ऑब्जेक्ट ट्रैकिंग चलाने की क्षमता प्रदान करता है। यह खासकर उपयोगी होता है जब हम कई निगरानी कैमरों से जैसे कि वहां से मौजूद वीडियो इनपुट को संभालने के लिए परस्पर प्रोसेसिंग करने की क्षमता बढ़ा सकते हैं। - -प्रदान किए गए पायथन स्क्रिप्ट में हम Python के `threading` मॉड्यूल का उपयोग करके यह संभव करते हैं कि कई इंस्टेंसेज को एक साथ ट्रैकर चलाया जा सके। यह हर थ्रेड के लिए एक ट्रैकर चलाने की जिम्मेदारी होती है, और सभी थ्रेड संघ थ्रेड बैकग्राउंड में एक साथ चलते हैं। - -हर थ्रेड को सही पैरामीटर्स (वीडियो फ़ाइल, उपयोग करने के लिए मॉडल और फ़ाइल इंडेक्स) प्राप्त करने के लिए, हम `run_tracker_in_thread` नामक एक फ़ंक्शन को परिभाषित करते हैं जो इन पैरामीटर्स को स्वीकार करता है और मुख्य ट्रैकिंग लूप को संबंधित करता है। यह फ़ंक्शन वीडियो फ्रेम्स को फ्रेम द्वारा पढकर, ट्रैकर चलाने और परिणामों को प्रदर्शित कर रही है। - -इस उदाहरण में दो अलग मॉडल इस्तेमाल होते हैं: `yolov8n.pt` और `yolov8n-seg.pt`, जो हर एक अलग वीडियो फ़ाइल में ऑब्जेक्ट को ट्रैक करते हैं। वीडियो फाइल `video_file1` और `video_file2` में निर्दिष्ट किए गए हैं। `threading.Thread` में `daemon=True` विधिमति का उपयोग संकेत करता है कि यह सुनिश्चित करता है कि जब प्रमुख कार्यक्रम समाप्त हो जाए, तो ये सभी थ्रेड बंद हो जाएंगे। हम `start()` का उपयोग करके थ्रेडों को शुरू करते हैं और `join()` का उपयोग करके मुख्य थ्रेड को प्रतीक्षा करने के लिए बनाते हैं जब तक कि ट्रैकर थ्रेड खत्म नहीं हो जाते। - -चूंकि सभी थ्रेडों ने अपना कार्य पूरा कर लिया है, इसलिए `cv2.destroyAllWindows()` का उपयोग करके परिणामों को दिखाने वाली विंडो को बंद करते हैं। - -!!! Example "ट्रैकिंग के लिए स्ट्रीमिंग फ़ोर-लूप" - - ```python - import threading - import cv2 - from ultralytics import YOLO - - - def run_tracker_in_thread(filename, model, file_index): - """ - थ्रेडिंग के साथ YOLOv8 मॉडल के साथ एक वीडियो फ़ाइल या webcam स्रोत संगतरूप पर ट्रैकर चलाता है। - - यह फ़ंक्शन एक वेदनीय वीडियो फ़ाइल या कैमरा स्रोत से वीडियो फ़्रेमों को पकड़ता है और ऑब्जेक्ट ट्रैकिंग के लिए YOLOv8 मॉडल का उपयोग करता है। यह फ़ंक्शन अपनी थ्रेड में चलता है जो कार्य प्रसंस्करण के रूप में एक साथ चलता है। - - Args: - filename (str): वीडियो फ़ाइल के पथ या कैमरे / बाहरी कैमरे स्रोत का पहचानकर्ता। - model (obj): YOLOv8 मॉडल ऑब्जेक्ट। - file_index (int): फ़ाइल को पहचानने के लिए ऐंद्रिक कोड। - - ध्यान दें: - वीडियो डिस्प्ले विंडो बंद करने के लिए 'q' दबाएं। - """ - वीडियो = cv2.VideoCapture(filename) # वीडियो फ़ाइल पढ़ें - - while True: - सफलता, फ़्रेम = वीडियो.read() # वीडियो फ़्रेम पढ़ें - - # कोई भी फ़्रेम न बचा हो, तो लूप से बाहर निकलें - if not सफलता: - तोड़ो - तोड़ो - - # ऑब्जेक्ट्स को ट्रैक करें यदि उपलब्ध हों - results = model.track(फ़्रेम, persist=True) - res_plotted = results[0].plot() - cv2.imshow(f"स्रोत_{file_index} पर ट्रैकिंग", res_plotted) - - कुंजी = cv2.waitKey(1) - if कुंजी == ord('q'): - तोड़ो - - # वीडियो स्रोतों को छोड़ें - वीडियो.रिलीज़े() - - - # मॉडल लोड करें - model1 = YOLO('yolov8n.pt') - model2 = YOLO('yolov8n-seg.pt') - - # ट्रैकर के लिए वीडियो फ़ाइलें परिभाषित करें - video_file1 = "path/to/video1.mp4" # वीडियो फ़ाइल का पथ, वेबकैम के लिए 0 - video_file2 = 0 # वीडियो फ़ाइल का पथ, वेबकैम के लिए 0, बाहरी कैमरा के लिए 1 - - # ट्रैकर थ्रेड सबसे ऊपर बनाएं - tracker_thread1 = threading.Thread(target=run_tracker_in_thread, args=(video_file1, model1, 1), daemon=True) - tracker_thread2 = threading.Thread(target=run_tracker_in_thread, args=(video_file2, model2, 2), daemon=True) - - # ट्रैकर थ्रेड प्रारंभ करें - tracker_thread1.start() - tracker_thread2.start() - - # ट्रैकर थ्रेड की प्रतीक्षा करें - tracker_thread1.join() - tracker_thread2.join() - - # सभी ट्रैकर थ्रेडों के निपटाए जाने के बाद, परिणामों को प्रदर्शन विंडोज बंद करें - cv2.destroyAllWindows() - ``` - -यह उदाहरण स्क्रिप्ट जोड़कर और इसी मार्गदर्शन का उपयोग करके और अधिक वीडियो फ़ाइल और मॉडल के लिए बाहरी थ्रेड बना कर इसे कार्यान्वित करने के लिए आसानी से विस्तारित किया जा सकता है। - -## नए ट्रैकरों में सहयोग दें - -क्या आप बहु-ऑब्जेक्ट ट्रैकिंग में माहिर हैं और उल्ट्रालिटिक्स YOLO के साथ एक ट्रैकिंग ऍल्गोरिदम को सफलतापूर्वक अमल में लाया है? हम आपको [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) में हमारे ट्रैकर खंड के लिए योगदान देने के लिए आमंत्रित करते हैं! आपका वास्तविक दुनिया के अनुप्रयोग और समाधान आपके समुदाय के लिए अमूल्य हो सकते हैं। - -इस खंड में योगदान देकर, आप उल्ट्रालिटिक्स YOLO फ्रेमवर्क के भीतर उपलब्ध ट्रैकिंग समाधानों की विस्तारवादी सूची बढ़ा सकते हैं, जो उल्ट्रालिटिक्स YOLO माध्यम से काम कर रहे उपयोगकर्ताओं के लिए अत्यधिक समर्पणशीलता और उपयोगीता जोड़ते हैं। - -अपनी योगदान की शुरुआत करने के लिए, कृपया हमारे [योगदान गाइड](https://docs.ultralytics.com/help/contributing) का संदर्भ लें जहां परामर्शिका प्रस्तुत करने के सचेत निर्देश दिए गए हैं। हम इंतजार कर रहे हैं देखें आप क्या लाते हैं! - -साथ में, चलिए Ultralytics YOLO पारिस्थितिकी की गतिशीलता को मजबूत करें 🙏! - -[वाहन ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab - -[लोग ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527 - -[मछली ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142 diff --git a/docs/hi/modes/train.md b/docs/hi/modes/train.md deleted file mode 100644 index 5447a84c72c..00000000000 --- a/docs/hi/modes/train.md +++ /dev/null @@ -1,293 +0,0 @@ ---- -comments: true -description: Ultralytics YOLO के साथ YOLOv8 मॉडल ट्रेन करने के लिए चरणबद्ध मार्गदर्शिका, एकल-GPU और बहु-GPU ट्रेनिंग के उदाहरणों के साथ। -keywords: Ultralytics, YOLOv8, YOLO, ऑब्जेक्ट डिटेक्शन, ट्रेन मोड, कस्टम डेटासेट, GPU ट्रेनिंग, बहु-GPU, हाइपरपैरामीटर, CLI उदाहरण, Python उदाहरण ---- - -# Ultralytics YOLO के साथ मॉडल ट्रेनिंग - -Ultralytics YOLO इकोसिस्टम और इंटीग्रेशन - -## परिचय - -एक गहरी यान्त्रिकी मॉडल को ट्रेनिंग देना उसे डेटा खिलाते हुए और इसके पैरामीटर्स को समायोजित करके सही पूर्वानुमान करने की सामर्थ्य को शामिल करता है। YOLOv8 मॉडल में Ultralytics YOLO के ट्रेन मोड ने ऑब्जेक्ट डिटेक्शन मॉडल्स को प्रभावी और दक्ष ट्रेनिंग के लिए इंजीनियरिंग किया गया है, जिससे आधुनिक हार्डवेयर क्षमताओं का पूरी तरह से उपयोग किया जा सके। यह मार्गदर्शिका उन सभी विवरणों को कवर करने का उद्देश्य रखती है जो आपको YOLOv8 के मजबूत सेट ऑफ़ सुविधाओं का उपयोग करके अपने खुद के मॉडल्स को ट्रेनिंग शुरू करने के लिए चाहिए। - -

-
- -
- देखें: Google Colab में अपने कस्टम डेटासेट पर एक YOLOv8 मॉडल को ट्रेन करने का तरीका। -

- -## प्रशिक्षण के लिए Ultralytics YOLO का चयन क्यों करें? - -यहां YOLOv8 के ट्रेन मोड को चुनने के कुछ प्रमुख कारण हैं: - -- **दक्षता:** अपने हार्डवेयर से सबसे अधिक लाभ उठाएं, चाहे आप सिंगल-GPU सेटअप पर हों या कई GPU पर स्केल कर रहें हों। -- **प्राक्तिशिल्ता:** COCO, VOC और ImageNet जैसे तत्परता उपलब्ध डेटासेटों के अलावा कस्टम डेटासेट पर ट्रेन करें। -- **उपयोगकर्ता मित्रपूर्णता:** सीधे और शक्तिशाली CLI और Python इंटरफ़ेस का उपयोग एक सीधी ट्रेनिंग अनुभव के लिए। -- **हाइपरपैरामीटर लचीलापन:** मॉडल प्रदर्शन को सुधारने के लिए वैश्विक स्तर पर अनुकूलन योग्य हाइपरपैरामीटरों की एक व्यापक श्रृंखला। - -### ट्रेन मोड की प्रमुख सुविधाएं - -निम्नलिखित YOLOv8 के ट्रेन मोड की कुछ महत्वपूर्ण सुविधाएं हैं: - -- **स्वत: डेटासेट डाउनलोड:** COCO, VOC और ImageNet जैसे मानक डेटासेट्स को पहली बार के उपयोग पर स्वत: डाउनलोड किया जाता है। -- **बहु-GPU समर्थन:** प्रक्रिया की गति को तेज करने के लिए अनुप्रयोग में कई जीपीयू का उपयोग करें। -- **हाइपरपैरामीटर कॉन्फ़िगरेशन:** हाइपरपैरामीटर को यामल कॉन्फ़िगरेशन फ़ाइल या CLI तर्कों के माध्यम से संशोधित करने का विकल्प। -- **दृश्यीकरण और मॉनिटरिंग:** प्रशिक्षण मैट्रिक्स के वास्तविक समय ट्रैकिंग और सीखने की प्रक्रिया के दृश्यीकरण के लिए बेहतर अवधारणा के लिए। - -!!! Tip "टिप" - - * COCO, VOC, ImageNet और कई अन्य जैसे YOLOv8 डेटासेट पहले से आपूर्ति हो जाते हैं, उपयोग पर स्वत: डाउनलोड होते हैं, जैसे `yolo train data=coco.yaml` - -## उपयोग उदाहरण - -सौंधांग्रही कोड को नजरअंदाज किए बिना कोई उत्तर देने के लिए, कोको128 डेटासेट के लिए YOLOv8n पर ट्रेनिंग करें। ट्रेनिंग उपकरण `device` तर्क का उपयोग करके निर्दिष्ट किया जा सकता है। आगर कोई तर्क निर्दिष्ट नहीं किया जाता है, तो प्रशिक्षण `device=0` लगाने के लिए उपयुक्त GPU `device=0` का उपयोग करेगा, अन्यथा `device=cpu` का उपयोग किया जाएगा। पूरी प्रशिक्षण तर्कों की पूरी सूची के लिए नीचे देखें। - -!!! Example "सिंगल-जीपीयू और सीपीयू प्रशिक्षण उदाहरण" - - उपकरण स्वत: निर्धारित किया जाता है। यदि साझा-GPU उपलब्ध हो तो उसका उपयोग किया जाएगा, अन्यथा प्रशिक्षण सीपीयू पर शुरू होगा। - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n.yaml') # YAML से एक नया मॉडल बनाएं - model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML से बनाएं और वजन मारे ट्रांसफर करें - - # मॉडल प्रशिक्षण - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash बैश - # YAML से एक नया मॉडल बनाएं और शुरू से प्रशिक्षण शुरू करें - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # पूर्व-प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # YAML से एक नया मॉडल बनाएं, पूर्व-प्रशिक्षित वजनों को इसमें स्थानांतरित करें और प्रशिक्षण शुरू करें - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### बहु-जीपीयू प्रशिक्षण - -बहु-जीपीयू प्रशिक्षण एकाधिक जीपीयू के उपयोग से उपलब्ध होता है और उपकरण माध्यम से भी Python API के माध्यम से उपलब्ध है। बहु-जीपीयू प्रशिक्षण को सक्षम करने के लिए, आप उपयोग करना चाहते हैं उन जीपीयू उपकरण आईडीजी को निर्दिष्ट करें। - -!!! Example "बहु-जीपीयू प्रशिक्षण का उदाहरण" - - 2 जीपीयू के साथ प्रशिक्षित करें, CUDA उपकरण 0 और 1 का उपयोग करें। अतिरिक्त जीपीयू के लिए विस्तार करें जितना आवश्यक हो। - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें - - # दो जीपीयू के साथ मॉडल प्रशिक्षण - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # पूर्व-प्रशिक्षित *.pt मॉडल से जीपीयू 0 और 1 का उपयोग करके प्रशिक्षण शुरू करें - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### ऐपल M1 और M2 MPS प्रशिक्षण - -ऐपल M1 और M2 चिप्स के समर्थन के साथ Ultralytics YOLO मॉडल पर ट्रेनिंग करना अब ऐसे उपकरणों पर संभव होता है जहां शक्तिशाली मेटल परफार्मेंस शेडर (MPS) फ़्रेमवर्क का उपयोग किया जाता है। MPS कंप्यूटेशन और छवि प्रसंस्करण कार्यों को आईयूपी स्लिकॉन पर निष्पादित करने का एक उच्च कार्यक्षमता तरीका प्रदान करता है। - -ऐपल M1 और M2 चिप्स पर प्रशिक्षण को सक्षम करने के लिए, आपको प्रशिक्षण प्रक्रिया शुरू करते समय "mps" को अपने उपकरण के रूप में निर्दिष्ट करना चाहिए। नीचे Python और कमांड लाइन में इसे कैसे कर सकते हैं उसका एक उदाहरण दिया गया है: - -!!! Example "MPS प्रशिक्षण का उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें - - # दो जीपीयू के साथ मॉडल प्रशिक्षण - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # पूर्व-प्रशिक्षित *.pt मॉडल से जीपीयू 0 और 1 का उपयोग करके प्रशिक्षण शुरू करें - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -M1/M2 चिप्स के गणितात्मक शक्ति का लाभ लेते हुए, इससे प्रशिक्षण कार्यों की कार्यक्षमता को और बढ़ाया जाता है। अधिक विस्तृत मार्गदर्शन और उन्नत रूपरेखा विकल्पों के लिए, कृपया [PyTorch MPS दस्तावेज़ीकरण](https://pytorch.org/docs/stable/notes/mps.html) का संदर्भ देखें। - -### बाधित प्रशिक्षण को बहाल करना - -पहले ही बचे हुए अवस्था की तालिका स्थापित करना, गहरी यान्त्रिकी मॉडल के साथ काम करते समय एक महत्वपूर्ण सुविधा है। यह विविध परिदृश्यों में उपयोगी है, जैसे जब अप्रत्याशित रूप से प्रशिक्षण प्रक्रिया रुक गई हो, या जब आप नए डेटा के साथ या अधिक इपॉक्स के लिए एक मॉडल को प्रशिक्षण जारी रखना चाहते हैं। - -प्रशिक्षण बहाल करने पर, Ultralytics YOLO अंतिम सहेजे गए मॉडल से वजनों को लोड करता है और अद्यतनकर्ता की स्थिति, शिक्षा दर नियोजक और युग क्रमांक को भी पुनर्स्थापित करता है। इससे आप प्रशिक्षण प्रक्रिया को बिना किसी गड़बड़ के बाहर छोड़ देने के लिए कर सकते हैं। - -आप आसानी से Ultralytics YOLO में प्रशिक्षण को बहाल कर सकते हैं जब आप `train` विधि को बुलाने पर `resume` तर्क को `True` निर्दिष्ट करके और आंशिक रूप से निर्दिष्ट `pt` फ़ाइल के पथ को निर्दिष्ट करके, और आपका ट्रेनिंग प्रक्रिया जहां से छोड़ गई थी से प्रशिक्षण जारी रखने के लिए `train` फ़ंक्शन को कम्युट कीजिए। - -नीचे एक उदाहरण दिया गया है कि कैसे पायथन और कमांड लाइन में एक अविरल प्रशिक्षण को कैसे बहाल करें: - -!!! Example "प्रशिक्षण बहाल करने का उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('path/to/last.pt') # एक आंशिक-प्रशिक्षित मॉडल लोड करें - - # प्रशिक्षण बहाल करें - results = model.train(resume=True) - ``` - - === "CLI" - ```bash शैल - # एक अविरल प्रशिक्षण बहाल करें - yolo train resume model=path/to/last.pt - ``` - -`resume=True` सेट करके, `train` फ़ंक्शन पहले से बचे हुए मॉडल के स्थान में बचे हुए अवस्था में से प्रशिक्षण जारी रखेगा। यदि `resume` तर्क छोड़ दिया जाता है या `False` के रूप में निर्दिष्ट किया जाता है, तो `train` फ़ंक्शन एक नया प्रशिक्षण सत्र शुरू करेगा। - -याद रखें कि डिफ़ॉल्ट रूप स्थिति पर दशा-अतीत प्रति के अंत में बचावात्मक संग्रहण होते हैं, या `save_period` तर्क का उपयोग करके निश्चित अंतराल पर, इसलिए आपको एक प्रशिक्षण दौड़ को बहाल करने के लिए कम से कम 1 इपॉक्स पूर्ण करना होगा। - -## तर्क - -YOLO मॉडलों के लिए प्रशिक्षण सेटिंग विभिन्न हाइपरपैरामीटर और कॉन्फ़िगरेशन का उपयोग करते हैं जो मॉडल को एक डेटासेट पर प्रशिक्षित करने के लिए उपयोग होता है। इन सेटिंग्स में मॉडल के प्रदर्शन, गति और नियमितता पर प्रभाव पड़ सकता है। कुछ सामान्य YOLO प्रशिक्षण सेटिंग्स में बैच का आकार, सीखने दर, मोमेंटम और वेट डिके जैसी मानक अद्यतन वाली चीजें शामिल हैं। प्रशिक्षण प्रक्रिया को प्रभावी ढंग से स्थापित करने के लिए इन सेटिंग्स को सावधानीपूर्वक संयोजित करना महत्वपूर्ण है और एक दिए गए कार्य के लिए श्रेणी में सबसे अच्छे परिणाम प्राप्त करने के लिए इन सेटिंग्स के साथ संगतन करने की आवश्यकता होती है। - -| कुंजी | मान | विवरण | -|-------------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `model` | `None` | मॉडल फ़ाइल का पथ, चाहे yolov8n.pt, yolov8n.yaml | -| `data` | `None` | डेटा फ़ाइल का पथ, चाहे coco128.yaml | -| `epochs` | `100` | प्रशिक्षण के लिए बार की संख्या | -| `patience` | `50` | प्रशिक्षण के आरंभ में कोई देखने के योग्य सुधार के लिए इपॉक्स इंतजार करें | -| `batch` | `16` | प्रति बैच छवि की संख्या (-1 के लिए AutoBatch) | -| `imgsz` | `640` | प्रारंभिक छवियों का आकार मानदंड | -| `save` | `True` | प्रशिक्षण नियंत्रितक और पूर्वानुमान परिणाम सहेजें | -| `save_period` | `-1` | प्रत्येक x ईपॉक्स पर निर्वाचित चेकप्वाइंट (1 से कम द्वारा अक्षम) | -| `cache` | `False` | [सही/रैम](https://github.com/rwightman/pytorch-image-models/blob/master/timm/data/constants.py) या खोलने के लिए ब्राउज़र के लिए ब्राउज़र डेटा लोड करने के लिए उपयोग करें | -| `device` | `None` | चलाने के लिए उपकरण, उदाहरण के लिए cuda उपकरण का उपयोग करें device=0 या device=0,1 या device=cpu | -| `workers` | `8` | वर्कर सूत्रों की संख्या | -| `project` | `None` | प्रोजेक्ट का नाम | -| `name` | `None` | प्रयोग का नाम | -| `exist_ok` | `False` | मौजूदा प्रयोग को अधिलेखित करने के लिए या नहीं | -| `pretrained` | `True` | (बूल या स्ट्रिंग) आज्ञानुसार एक पूर्व-प्रशिक्षित मॉडल का उपयोग करें (बूल) या वजनों को लोड करने के लिए मॉडल से (स्ट्रिंग) | -| `optimizer` | `'auto'` | चयन के लिए बराबरी=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto] | -| `verbose` | `False` | वर्बोज़ आउटपुट प्रिंट करें | -| `seed` | `0` | नियंत्रित (प्रशिक्षणीय) बीज के लिए | -| `deterministic` | `True` | नियंत्रित माध्यम को सक्षम करें | -| `single_cls` | `False` | हिल विशेषज्ञता डेटा सिंगल-कक्षा के रूप में | -| `rect` | `False` | न्यूनतम पैडिंग के लिए प्रति बैच रो टैब्री के साथ आयतात्मक प्रशिक्षण | -| `cos_lr` | `False` | साइन के साइन शिक्षण दर नियोजक का उपयोग करें | -| `close_mosaic` | `10` | अंतिम अवधि के लिए मॉज़ेक त断श्रावक में माध्यम वृक्षों की सक्षमता (0 को अक्षम करें) | -| `resume` | `False` | आखिरी निर्वाचित चेकप्वाइंट से प्रशिक्षण बहाल करें | -| `amp` | `True` | ऑटोमेटिक मिक्स्ड प्रेसिजन (AMP) प्रशिक्षण, चयन=[True, False] | -| `fraction` | `1.0` | प्रशिक्षित करने के लिए डेटासेट आंशिक (डिफ़ॉल्ट 1.0, प्रशिक्षण सेट में सभी छवियां) | -| `profile` | `False` | लॉगर्स के लिए प्रशिक्षण के दौरान ONNX और TensorRT की स्पीड प्रोफ़ाइल | -| `freeze` | `None` | श्रोणि की पहले n परतें, या श्रोणि सूची लेयर सूची को प्रशिक्षण के दौरान लॉक करें | -| `lr0` | `0.01` | प्रारंभिक सीखने दर (उदा. SGD=1E-2, Adam=1E-3) | -| `lrf` | `0.01` | परिणामकारी सीखने दर (lr0 * lrf) | -| `momentum` | `0.937` | SGD मोमेंटम/Adam बीटा1 | -| `weight_decay` | `0.0005` | शव्य वजन दण्ड 5e-4 | -| `warmup_epochs` | `3.0` | प्रारंभिक अवधि (अंशों में ठंडा) | -| `warmup_momentum` | `0.8` | प्रारंभिक अवधि मे प्रारम्भिक अवधि | -| `warmup_bias_lr` | `0.1` | प्रारंभिक जुकान एलआर | -| `box` | `7.5` | बॉक्स हानि प्राप्ति | -| `cls` | `0.5` | वर्ग हानि प्राप्ति (पिक्सेल के साथ स्थापना करें) | -| `dfl` | `1.5` | खींची हानि प्राप्ति | -| `pose` | `12.0` | माथाप्रविष्टि हानि प्राप्ति (केवल ठंडा) | -| `kobj` | `2.0` | कीपॉइंट obj हानि प्राप्ति (केवल ठंडा) | -| `label_smoothing` | `0.0` | लेबल स्मूदिंग (अंश) | -| `nbs` | `64` | नामोज़यल बैच का आकार | -| `overlap_mask` | `True` | प्रशिक्षण के दौरान मास्क ओवरलैप होने चाहिए (सेगमेंट ट्रेन केवल) | -| `mask_ratio` | `4` | स्थानकटू औरता (सेगमेंट ट्रेन केवल) | -| `dropout` | `0.0` | निर्द्यमता का उपयोग करें (वर्गीकरण केवल प्रशिक्षण) | -| `val` | `True` | प्रशिक्षण के दौरान जाँच/परीक्षण | - -## लॉगिंग - -YOLO मॉडल के प्रशिक्षण में आपको समय-समय पर मॉडल के प्रदर्शन का पता रखना महत्वपूर्ण हो सकता है। यहां लॉगिंग की एक वैरांगणिकता, यानी कीमेट, क्लियरएमएल और टेंसरबोर्ड का समर्थन है। - -लॉगर का उपयोग करने के लिए, ऊपरी कोड स्निपेट के ठोकवाला मेनू से इसे चयन करें और इसे चलाएं। चयनित लॉगर स्थापित किया जाएगा और इनिशलाइज़ किया जाएगा। - -### कीमेट - -[कीमेट](../../../integrations/comet.md) एक प्लेटफ़ॉर्म है जो डेटा वैज्ञानिकों और डेवलपरों को प्रयोग और मॉडलों की प्रशिक्षण में तुलनात्मक, व्याख्यान करने और अग्रिम निर्धारण करने में मदद करता है। इसकी सुविधाएं वास्तविक समय मापक, कोड अंतर और हाइपरपैरामीटर ट्रैकिंग जैसी विभिन्नताएं प्रदान करती हैं। - -कीमेट का उपयोग करने के लिए: - -!!! Example "उदाहरण" - - === "Python" - ```python - # pip install comet_ml - import comet_ml - - comet_ml.init() - ``` - -कृपया कीमेट वेबसाइट पर अपने कीमेट खाते में साइन इन करें और अपनी एपीआई कुंजी प्राप्त करें। आपको अपने वातावरण प्रतिस्थापित करने या अपने स्क्रिप्ट में इसे जोड़ने की आवश्यकता होगी ताकि आप अपने प्रयोगों को लॉग कर सकें। - -### क्लियरएमएल - -[क्लियरएमएल](https://www.clear.ml/) एक ओपन-सोर्स प्लेटफ़ॉर्म है जो प्रयोगों के ट्रैकिंग को स्वतंत्र और प्रभावी संसाधित करने में मदद करता है। यह टीम को उनके एमएल का कार्य प्रबंधन, क्रियाकलापों को क्रियान्वयन करने और उनकी पुनःसृजन की संवेदनशीलता से सहायता करने के लिए डिज़ाइन दोबारा करने के लिए विकसित किया गया है। - -क्लियरएमएल का उपयोग करने के लिए: - -!!! Example "उदाहरण" - - === "Python" - ```python - # pip install clearml - import clearml - - clearml.browser_login() - ``` - -इस स्क्रिप्ट को चलाने के बाद, कृपया क्लियरएमएल वेबसाइट पर अपने क्लियरएमएल खाते में साइन इन करें और अपने ब्राउज़र सत्र की प्रमाणिकता स्वीकार करें। - -### टेंसरबोर्ड - -[टेंसरबोर्ड](https://www.tensorflow.org/tensorboard) एक टेन्सरफ़्लो वीज़ुअलाइज़ेशन टूलकिट है। यह आपको अपने टेन्सरफ़्लो ग्राफ को दृष्टिगतिक टुकड़ों में वेटवेद्य करने, आपातकालीन अवकलनों के बारे में मितियों को प्लॉट करने और इसके मध्य से जाने की कल्पना से बदलने जैसे अतिरिक्त डेटा दिखाने की अनुमति देता है। - -[Google Colab में](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) टेंसरबोर्ड का उपयोग करने के लिए: - -!!! Example "उदाहरण" - - === "CLI" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # ध्यान दें कि 'धावक' निर्देशिका के साथ बदलें - ``` - -स्थानीय टेंसरबोर्ड का उपयोग करने के लिए नीचे दिए गए कमांड को चलाएं और परिणामों को http://localhost:6006/ पर देखें। - -!!! Example "उदाहरण" - - === "CLI" - ```bash - tensorboard --logdir ultralytics/runs # ध्यान दें कि 'धावक' निर्देशिका के साथ बदलें - ``` - -इससे टेंसरबोर्ड लोड होगा और यह आपके प्रशिक्षण लॉगों की सहेजी हुई निर्देशिका की ओर दिशानिर्देश करेगा। - -लॉगर स्थापित करने के बाद, आप अपने चयनित प्लेटफ़ॉर्म में स्वचालित रूप से रूपांतरण मात्राओं को अद्यतन करने के लिए प्रशिक्षणीय कोड जारी रख सकते हैं, और आपको इन लॉगों का उपयोग करके अपने मॉडल के प्रदर्शन का मूल्यांकन कर सकते हैं चाहे यह मॉडलों के प्रदर्शन के समय, विभिन्न मॉडलों का तुलनात्मक मूल्यांकन, और सुधार करने का पहचान करने के लिए। diff --git a/docs/hi/modes/val.md b/docs/hi/modes/val.md deleted file mode 100644 index 8880f820ae3..00000000000 --- a/docs/hi/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: YOLOv8 मॉडलों की मान्यता सत्यापन के लिए गाइड। यहाँ जानें कि कैसे पायथन और CLI उदाहरणों के साथ परीक्षण सेटिंग्स और मापों का उपयोग करके अपने YOLO मॉडलों के प्रदर्शन का मूल्यांकन करें। -keywords: Ultralytics, YOLO दस्तावेज़, YOLOv8, मान्यता, मॉडल मूल्यांकन, हाइपरपैरामीटर, सटीकता, माप, पायथन, सीएलआई ---- - -# Ultralytics YOLO के साथ मॉडल मान्यता - -Ultralytics YOLO पारिस्थितिकी और एकीकरण - -## परिचय - -मान्यता मशीन लर्निंग पाइपलाइन में एक महत्वपूर्ण चरण है, जो आपको अपने प्रशिक्षित मॉडलों की गुणवत्ता का मूल्यांकन करने की अनुमति देता है। Ultralytics YOLOv8 में Val मोड बहुत सारे टूल्स और मापों का प्रयोग करके आपके ऑब्जेक्ट डिटेक्शन मॉडलों के प्रदर्शन का मूल्यांकन करने के लिए है। यह गाइड योग्यता और विश्वसनीयता दोनों सुनिश्चित करने के लिए Val मोड का सविस्तर संसाधन के रूप में काम आता है। - -## Ultralytics YOLO के साथ मान्यता करने के फायदे - -यहाँ योलोवी8 के Val मोड का उपयोग करने के फायदे हैं: - -- **सटीकता:** अपने मॉडल को पूरी तरह से मूल्यांकित करने के लिए mAP50, mAP75, और mAP50-95 जैसे टिकाऊ मापों को प्राप्त करें। -- **सुविधा:** मूल्यांकन प्रक्रिया को सरल बनाने के लिए ट्रेनिंग सेटिंग्स को याद करने वाली इनबिल्ट सुविधा का उपयोग करें। -- **लचीलापन:** अपने मॉडल को एक ही या अलग डेटासेट और छवि आकार के साथ मान्यता दें। -- **हाइपरपैरामीटर ट्यूनिंग:** मूल्यांकन मापों का उपयोग करके अपने मॉडल को बेहतर प्रदर्शन के लिए समायोजित करें। - -### Val मोड की मुख्य विशेषताएं - -ये हैं YOLOv8 के Val मोड द्वारा प्रदान की जाने वाली महत्वपूर्ण कार्यक्षमताएं: - -- **स्वत: सेटिंग्स:** मॉडल योग्यता के लिए अपने प्रशिक्षण समायोजनों को स्वतः याद रखते हैं। -- **बहुमान्यता समर्थन:** विभिन्न सटीकता मापों के आधार पर अपने मॉडल की मूल्यांकन करें। -- **CLI और पायथन एपीआई:** मान्यता के लिए CLI या पायथन एपीआई में से एक का चयन करें। -- **डेटा सम्पर्कता:** कोकोविवक प्रशिक्षण चरण में उपयोग की जाने वाली डेटासेट के साथ सहजता से काम करता है। - -!!! Tip "टिप" - - * YOLOv8 मॉडल अपने प्रशिक्षण सेटिंग्स को स्वतः याद रखते हैं, इसलिए आप केवल `yolo val model=yolov8n.pt` या `model('yolov8n.pt').val()` द्वारा सरलतापूर्वक एक मॉडल को समान छवि आकार के साथ और मूल डेटासेट पर मान्यता दे सकते हैं। - -## उपयोग के उदाहरण - -COCO128 डेटासेट पर प्रशिक्षित YOLOv8n मॉडल की सटीकता मान्यांकन करें। `model` को विद्यमान ट्रेनिंग `data` और तर्क बने रहते हैं, इसलिए कोई तर्क पास कराने की आवश्यकता नहीं है। पूरी सूची निर्यात तर्कों के लिए नीचे देखें। - -!!! Example "उदाहरण" - - === "पायथन" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n.pt') # एक आधिकारिक मॉडल लोड करें - model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें - - # मॉडल को मान्यांकन करें - metrics = model.val() # कोई तर्क आवश्यक नहीं होते हैं, डेटासेट और सेटिंग्स याद रखे जाते हैं - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # हर श्रेणी के map50-95 से बना एक सूची - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # आधिकारिक मॉडल को मान्यांकन करें - yolo detect val model=path/to/best.pt # कस्टम मॉडल को मान्यांकन करें - ``` - -## तर्क - -YOLO मॉडल के लिए मान्यांकन सेटिंग्स निम्नलिखित होते हैं: हाइपरपैरामीटर और विन्यास जैसे, जो मॉडल की मान्यता को मूल्यांकित करने के लिए उपयोग होते हैं। ये सेटिंग्स मॉडल के प्रदर्शन, गति, और सटीकता पर प्रभाव डाल सकती हैं। कुछ आम YOLO मान्यांकन सेटिंग्स में दाल-दालत, ट्रेनिंग के दौरान मान्यांकन कब किया जाता है और मान्यांकन के लिए उपयोग किए जाने वाले माप शामिल हैं। मान्यांकन प्रक्रिया को प्रभावित कर सकने वाले अन्य कारकों में मान्यांकन डेटासेट का आकार और संरचना और मॉडल का विशेष कार्य शामिल हैं। ओवरफिटिंग का पता लगाने और रोकने के लिए इन सेटिंग्स को सावधानीपूर्वक समायोजित और प्रयोग करना महत्वपूर्ण है। - -| कुंजी | मान | विवरण | -|---------------|---------|------------------------------------------------------------------------------------| -| `data` | `None` | डेटा फ़ाइल का पथ, जैसे की coco128.yaml | -| `imgsz` | `640` | प्रारूपिक छवि का आकार एक पूर्णांक के रूप में | -| `batch` | `16` | प्रति बैच छवि की संख्या (-1 for AutoBatch) | -| `save_json` | `False` | परिणाम JSON फ़ाइल में सहेजें | -| `save_hybrid` | `False` | प्रकारों के हाइब्रिड संस्करण को सहेजें (लेबल + अतिरिक्त पूर्वानुमान) | -| `conf` | `0.001` | डिटेक्शन के लिए वस्तु का विश्वसनीयता थ्रेशहोल्ड | -| `iou` | `0.6` | संयोग/संधि (IoU) के लिए थ्रेशहोल्ड डाकघर | -| `max_det` | `300` | प्रति छवि के लिए अधिकतम निकासी संख्या | -| `half` | `True` | अर्धसरलता (FP16) का उपयोग करें | -| `device` | `None` | चलाएं के लिए युक्ति, उदाहरण के लिए cuda device=0/1/2/3 या device=cpu | -| `dnn` | `False` | ओएनएनएक्स संज्ञानात्मक के लिए ओपेंसीवी डीएनएन का उपयोग करें | -| `plots` | `False` | प्रशिक्षण के दौरान चित्रितियाँ दिखाएं | -| `rect` | `False` | न्यूनतम पैडिंग के लिए हर बैच को संकलित आयताकारक विमान करें | -| `split` | `val` | मान्यांकन के लिए उपयोग की जाने वाली डेटासेट स्प्लिट, जैसे 'val', 'test' या 'train' | -| diff --git a/docs/hi/quickstart.md b/docs/hi/quickstart.md deleted file mode 100644 index 97e8f16d4c5..00000000000 --- a/docs/hi/quickstart.md +++ /dev/null @@ -1,327 +0,0 @@ ---- -comments: true -description: Ultralytics को स्थापित करने के विभिन्न तरीकों के बारे में जानें। Ultralytics को pip, conda, git और Docker का उपयोग करके स्थापित करें। Ultralytics का उपयोग कमांड लाइन इंटरफेस या अपनी Python परियोजनाओं के भीतर करना सीखें। -keywords: Ultralytics स्थापना, pip install Ultralytics, Docker install Ultralytics, Ultralytics कमांड लाइन इंटरफेस, Ultralytics Python इंटरफेस ---- - -## Ultralytics स्थापित करें - -Ultralytics ने pip, conda और Docker सहित कई स्थापना विधियाँ प्रदान की हैं। नवीनतम स्थिर संस्करण के लिए `ultralytics` pip पैकेज का उपयोग करके YOLOv8 स्थापित करें या सबसे अद्यतित संस्करण के लिए [Ultralytics GitHub repository](https://github.com/ultralytics/ultralytics) क्लोन करें। Docker का उपयोग करके, स्थानीय स्थापना से बच कर, एक छोटे जगह में पैकेज के नए संस्करण का निष्पादन किया जा सकता है। - -!!! Note "नोट" - - 🚧 हमारे बहुभाषीय दस्तावेज़ीकरण की वर्तमान में निर्माणाधीन है और हम उसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। आपके धैर्य के लिए धन्यवाद! 🙏 - -!!! Example "स्थापित करें" - - === "Pip स्थापित करें (अनुशंसित)" - यदि आपके पास पिछले संस्करण का स्थापना है, तो पिप का उपयोग करके `ultralytics` पैकेज को स्थापित करने के लिए `pip install -U ultralytics` कमांड चलाएं। `ultralytics` पैकेज के बारे में अधिक विवरण के लिए [Python Package Index (PyPI)](https://pypi.org/project/ultralytics/) पर जाएं। - - [![PyPI version](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Downloads](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # PyPI से ultralytics पैकेज का स्थापना करें - pip install ultralytics - ``` - - आप इसे सीधे [GitHub repository](https://github.com/ultralytics/ultralytics) से भी स्थापित कर सकते हैं। यह अद्यतन संस्करण प्राप्त करना चाहते हैं तो यह सर्वोत्तम हो सकता है। इसके लिए अपने सिस्टम पर गिट कमांड-लाइन टूल स्थापित होना चाहिए। `@main` अपदेश की `main` शाखा को स्थापित करता है और इसे दूसरी शाखा, उदा. `@my-branch`, में संशोधित किया जा सकता है, या पूर्णतः हटा दिया जा सकता है, ताकि यह डिफ़ॉल्ट रूप से `main` शाखा को ले जाए। - - ```bash - # GitHub से ultralytics पैकेज का स्थापना करें - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "Conda स्थापित करें" - स्थापना के लिए pip के बदले Conda एक वैकल्पिक पैकेज प्रबंधक है जिसे आप स्थापना के लिए उपयोग कर सकते हैं। किसी भी जानकारी के लिए [Anaconda की मुख्य साइट](https://anaconda.org/conda-forge/ultralytics) पर जाएं। कंडा पैकेज की अद्यतन और संसाधन रिपो के लिए [यहां](https://github.com/conda-forge/ultralytics-feedstock/) देखें। - - - [![Conda Recipe](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Downloads](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Version](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Platforms](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # conda का उपयोग करके ultralytics पैकेज का स्थापना करें - conda install -c conda-forge ultralytics - ``` - - !!! Note "नोट" - - यदि आप CUDA परिवेश में स्थापित कर रहे हैं तो सर्वोत्तम अनुशंसा है कि आप कमांड-लाइन पर `pytorch` और `pytorch-cuda` स्थापित करने के लिए कमांड एक साथ इंस्टॉल करें ताकि कोण्डा पैकेज प्रबंधक को कोई भी टकराव सुलझाने के लिए अनुमति मिले, या फिर जरूरत पड़ने पर CPU-विशिष्ट `pytorch` पैकेज को CPU-विशिष्ट होने वाले `pytorch-cuda` पैकेज को अधिरोहित करने की अनुमति दें। - ```bash - # conda का उपयोग करके सभी पैकेजों को एक साथ स्थापित करें - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Conda Docker इमेज - - Ultralytics Conda Docker इमेज [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics) से उपलब्ध हैं। ये इमेजेज [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) पर आधारित हैं और `ultralytics` का उपयोग Conda पर्यावरण में करने के लिए एक सरल तरीका है। - - ```bash - # रूपरेखा नाम को एक चर के रूप में सेट करें - t=ultralytics/ultralytics:latest-conda - - # Docker Hub से नवीनतम ultralytics इमेज को पुल करें - sudo docker pull $t - - # जीपीयू समर्थन वाले कंटेनर में ultralytics इमेज चलाएं - sudo docker run -it --ipc=host --gpus all $t # सभी जीपीयू - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # जीपीयू द्वारा निर्दिष्ट करें - ``` - - === "Git क्लोन" - यदि आप विकास में योगदान करने में रुचि रखते हैं या नवीनतम स्रोत कोड के साथ प्रयोग करने की इच्छा रखते हैं, तो `ultralytics` रिपॉजिटरी क्लोन करें। क्लोनिंग के बाद, उस निर्दिष्टित संदर्भ में नेविगेट करें और पैकेज को पहचानने के लिए pip का उपयोग करते हुए संगठनात्मक मोड `-e` के साथ पैकेज स्थापित करें। - ```bash - # ultralytics रिपॉजिटरी क्लोन करें - git clone https://github.com/ultralytics/ultralytics - - # क्लोन की गई निर्देशिका में नेविगेट करें - cd ultralytics - - # विकास के लिए संगठनात्मक मोड में पैकेज स्थापित करें - pip install -e . - ``` - - === "Docker" - - Docker का उपयोग करके `ultralytics` पैकेज का आसानी से निष्पादन करें और इसे रखरखाव में बेहद सुगम बनाएं, इस पैकेज का उपयोग करें, विभिन्न पर्यावरणों पर सतत और सुगम प्रदर्शन सुनिश्चित करने के लिए। [Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics) से सत्यापित कार्यकारी वातावरण तक पहुंच के लिए Ultralytics 5 मुख्य समर्थित Docker इमेज उपलब्ध हैं, जो विभिन्न प्लेटफ़ॉर्म और उपयोग मामलों के लिए उच्च संगतता और प्रदार्थशीलता प्रदान करने के लिए डिज़ाइन किए गए हैं: - - डॉकर पुल्ल्स - - - **Dockerfile:** प्रशिक्षण के लिए अद्यतन संस्करण के लिए अनुशंसित GPU चित्र। - - **Dockerfile-arm64:** ARM64 वाणिज्यिकरण के लिए अनुकूलित, Raspberry Pi और अन्य ARM64 आधारित प्लेटफ़ॉर्म पर यातायात की अनुमति देता है। - - **Dockerfile-cpu:** GPU रहित पतला मॉडल, उबंटू आधारित योग्यता तक पुनर्निर्माण के लिए उपयुक्त है। - - **Dockerfile-jetson:** NVIDIA Jetson उपकरणों के लिए आदर्शों के आधार पर गीयू समर्थन मिलान, इन प्लेटफ़ॉर्मों के लिए अनुकूल यूपीयू समर्थन समेकित करता है। - - **Dockerfile-python:** केवल Python और आवश्यकता प्रतिस्थापित करने वाले न्यूनतम छवि, हल्के ऐप्स और विकास के लिए आदर्श छवि। - - **Dockerfile-conda:** Miniconda3 पर आधारित, Ultralytics पैकेज के कोण्डा स्थापना के साथ। - - निम्नलिखित कमांडों का उपयोग करके नवीनतम छवि लाएँ और उसे निष्पादित करें: - - ```bash - # छवि नाम को एक चर के रूप में सेट करें - t=ultralytics/ultralytics:latest - - # Docker Hub से नवीनतम ultralytics छवि पुल करें - sudo docker pull $t - - # जीपीयू समर्थन वाले कंटेनर में ultralytics छवि चलाएं - sudo docker run -it --ipc=host --gpus all $t # सभी जीपीयू - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # जीपीयू द्वारा निर्दिष्ट करें - ``` - - उपरोक्त कमांड ने एक Docker कंटेनर को एक्सेस करने के लिए उत्थान किया है। `-it` झंझटी एक प्रतीक TTY को निर्धारित करती है और stdin खुली रखती है, जिससे आप कंटेनर के साथ इंटरैक्ट कर सकते हैं। `--ipc=host` झंझटी IPC (Inter-Process Communication) नेमस्पेस को होस्ट पर सेट करता है, जो प्रक्रियाओं के बीच मेमोरी साझा करने के लिए आवश्यक होता है। `--gpus all` निर्दिष्ट जीपीयू कंटेनर के बीतर सभी उपलब्ध जीपीयू के लिए पहुंच सक्षम करता है, जो जीपीयू हस्तक्षेप आवश्यकता वाले कार्यों के लिए महत्वपूर्ण है। - - ध्यान दें: कंटेनर में स्थिति में अपनी स्थानीय मशीन पर फ़ाइलों के साथ काम करने के लिए Docker वॉल्यूम का उपयोग करें: - - ```bash - # स्थानीय निर्देशिका को कंटेनर में निर्देशिका में माउंट करें - sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t - ``` - - `/path/on/host` को अपनी स्थानीय मशीन पर निर्देशिका पथ के साथ बदलें और `/path/in/container` को कंटेनर में योग्यता तक पथ बदलें जिससे पहुंच मिल सके। - - पूर्ण Docker उपयोग के लिए, आप [Ultralytics Docker मार्गदर्शिका](https://docs.ultralytics.com/guides/docker-quickstart/) के अन्वेषण कर सकते हैं। - -`ultralytics` के लिए सभी आवश्यकताओं की सूची के लिए `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml) फ़ाइल देखें। ध्यान दें कि उपरोक्त सभी उदाहरणों में सभी आवश्यकताएं स्थापित होती हैं। - -

-
- -
- देखें: Ultralytics YOLO Quick Start Guide -

- -!!! Tip "सुझाव" - - ऑपरेटिंग सिस्टम और CUDA आवश्यकताओं के अनुसार PyTorch आवश्यकताएं अलग-अलग हो सकती हैं, इसलिए अनुशंसा की जाती है कि पहले PyTorch स्थापित करने के लिए इंस्ट्रक्शंस पर जाएं। [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally) पर उपयोग के बारे में अधिक जानकारी के लिए। - - - PyTorch Installation Instructions - - -## CLI के साथ Ultralytics का उपयोग करें - -Ultralytics कमांड लाइन इंटरफ़ेस (CLI) आसान एकल-पंक्ति कमांड के लिए संक्षेप में होसला अद्यतित करता है, पायथन पर्यावरण की ज़रूरत के बिना। CLI कोई अनुकूलन या पायथन कोड की आवश्यकता नहीं होती है। आप केवल `yolo` कमांड के साथ टर्मिनल से सभी कार्यों को चला सकते हैं। CLI से YOLOv8 का उपयोग करने के बारे में और अधिक जानने के लिए [CLI Guide](/../usage/cli.md) देखें। - -!!! Example "उदाहरण" - - === "संयोजन" - Ultralytics `yolo` कमांड का उपयोग निम्नलिखित प्रारूप का उपयोग करता है: - ```bash - yolo टास्क मोड ARGS - ``` - - - `टास्क` (वैकल्पिक) इनमें से एक है ([खोजो](tasks/detect.md), [खंड](tasks/segment.md), [वर्गीकरण करो](tasks/classify.md), [स्थिति](tasks/pose.md)) - - `मोड` (आवश्यक) इनमें से एक है ([प्रशिक्षण](modes/train.md), [मान्य](modes/val.md), [पूर्वानुमान](modes/predict.md), [निर्यात](modes/export.md), [ट्रैक](modes/track.md)) - - `ARGS` (वैकल्पिक) `imgsz=640` जैसे `arg=मान` जो डिफ़ॉल्ट को ओवरराइड करते हैं। - - सभी `ARGS` को पूर्ण [Configuration Guide](/../usage/cfg.md) या `yolo cfg` CLI कमांड के साथ देखें। - - === "प्रशिक्षण" - प्रारंभिक शिक्षण और language के साथ 10 एपोक्स के लिए एक डिटेक्शन मॉडल प्रशिक्षित करें, जहां - इंगिती शिक्षण दर 0.01 है - ```bash - yolo ट्रेन data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "पूर्वानुमान" - पूर्व-प्रशिक्षित सेगमेंटेशन मॉडल का उपयोग करके YouTube वीडियो की भविष्यवाणी करें - छवि आकार 320: - ```bash - yolo पूर्वानुमान model=yolov8n-seg.pt स्रोत='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "मान्य करो" - एक पूर्व-प्रशिक्षित डिटेक्शन मॉडल की मान्यता वाली प्रमाणित करें और इमेज का आकार 640 के बैच-आकार 1 के साथ देखें: - ```bash - yolo मान्य model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "निर्यात करें" - एक YOLOv8n वर्गीकरण मॉडल को ONNX प्रारूप में निर्यात करें, 224x224 के आकार पर छवि (कोई टास्क आवश्यक नहीं है) - ```bash - yolo निर्यात model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "विशेष" - संस्पेष्ट कमांडों को चलाएं ताकि संस्करण, सेटिंग देखें, चेक करें और अधिक देखें: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "चेतावनी" - - ताकि दुविधा न हो, तज़्ज़ा सेटिंग को `arg=val` जोड़े के रूप में पार करना होगा, जिन्हें `=` रेखा द्वारा विभाजित किया जाता है और जोड़ों के बीच अंतरित होता है। `--` तर्क-पूर्वक अंटीरे शब्द या `,` अंतराल द्वारा तर्कों का उपयोग न करें। - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25` ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25` ❌ (अभाव `=`) - - `yolo predict model=yolov8n.pt, imgsz=640, conf=0.25` ❌ (`,` उपयोग न करें) - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25` ❌ (`--` उपयोग न करें) - -एकेन्द्रीय योग्यताएँ [Configuration Guide](/../usage/cfg.md) या `yolo cfg` CLI कमांड के साथ देखें। - -## Python के साथ Ultralytics का उपयोग करें - -YOLOv8 का Python इंटरफ़ेस आपकी Python परियोजनाओं में अंकित मिलने के लिए एक आसान तकनीक प्रदान करता है, जिसे हमारे पास शामिल करना आसान हो जाता है। उपयोगकर्ताओं को उनके परियोजनाओं में आपातकालीन पहुंच, चलाने और मॉडल के आउटपुट की प्रसंस्करण करने की आसानी के साथ प्रश्नोत्तरी, खंड, और वर्गीकरण कार्यों के लिए सुविधाजनक मूल्य प्रदान करता है। इस तकनीक के साथ, उपयोगकर्ताओं के लिए यह अद्वितीय साधन है जो अपनी Python परियोजनाओं में इन गुणों को शामिल करने की इच्छा रखते हैं। - -उदाहरण के लिए, उपयोगकर्ता संख्या गिनती के लिए कुछ-कुछ तारणी की योजना में मॉडल को लोड करके उसे प्रशिक्षित कर सकते हैं, इसका मूल्यांकन समाप्त कर सकते हैं और यदि आवश्यक हो, उसे ONNX प्रारूप में निर्यात कर सकते हैं। अपनी Python परियोजनाओं में YOLOv8 का उपयोग करने के बारे में और अधिक जानने के लिए [Python Guide](/../usage/python.md) देखें। - -!!! Example "उदाहरण" - - ```python - from ultralytics import YOLO - - # पूरी नई YOLO मॉडल बनाएँ - model = YOLO('yolov8n.yaml') - - # प्रशिक्षित YOLO मॉडल लोड करें (प्रशिक्षण के लिए अनुशंसित है) - model = YOLO('yolov8n.pt') - - # 3 एपोक्स के लिए "coco128.yaml" डेटासेट का उपयोग करके मॉडल को प्रशिक्षित करें - results = model.train(data='coco128.yaml', epochs=3) - - # मॉडल के द्वारा मान्यता वाले सेट पर प्रदर्शन करें - results = model.val() - - # मॉडल को उपयोग करके छवि पर डिटेक्शन करें - results = model('https://ultralytics.com/images/bus.jpg') - - # मॉडल को ONNX प्रारूप में निर्यात करें - success = model.export(format='onnx') - ``` - -[Python Guide](/../usage/python.md){.md-button .md-button--primary} - -## Ultralytics सेटिंग्स - -Ultralytics लाइब्रेरी सेटिंग्स प्रबंधन प्रणाली प्रदान करती है ताकि आप अपने प्रयोगों पर फाइन-ग्रेन्ड नियंत्रण बनाए रख सकें। `ultralytics.utils` में स्थित `SettingsManager` का उपयोग करके उपयोगकर्ता अपनी सेटिंग्स तक पहुंच करके उन्हें पढ़ और बदल सकते हैं। इन्हें पायथन पर्यावरण के भीतर सीधे देखने और संशोधित करने के लिए, या CLI (कमांड लाइन इंटरफ़ेस) के माध्यम से किया जा सकता है। - -### सेटिंग्स का गणना - -अपनी सेटिंग्स के मौजूदा विन्यास की ओरदारी करने के लिए आप उन्हें सीधे देख सकते हैं: - -!!! Example "सेटिंग्स देखें" - - === "पायथन" - आप PyTorch से `ultralytics` मॉड्यूल में `सेटिंग्स` ऑब्जेक्ट को आयात करके अपनी सेटिंग्स देख सकते हैं। `settings` ऑब्जेक्ट पर प्रिंट और रिटर्न सेटिंग्स के लिए निम्नलिखित कमांडों का उपयोग करें: - ```python - from ultralytics import settings - - # सभी सेटिंग्स देखें - print(settings) - - # एक विशेष सेटिंग प्राप्त करें - value = settings['runs_dir'] - ``` - - === "CLI" - यदि आप प्राथमिकताएँ लेते हैं CLI का उपयोग करना पसंद करते हैं, तो निम्नलिखित कमांड के माध्यम से अपनी सेटिंग्स की जांच कर सकते हैं: - ```bash - yolo settings - ``` - -### सेटिंग्स संशोधित करना - -Ultralytics के सेटिंग्स को संशोधित करना आसान है। बदलावों को निम्न तरीकों से किया जा सकता है: - -!!! Example "सेटिंग्स अपडेट करें" - - === "पायथन" - पायथन पर्यावरण के भीतर, अपनी सेटिंग्स पर `अपडेट` विधि को बुलाकर अपनी सेटिंग्स को बदल सकते हैं: - ```python - from ultralytics import settings - - # एक सेटिंग अपडेट करें - settings.update({'runs_dir': '/path/to/runs'}) - - # एकाधिक सेटिंग अपडेट करें - settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False}) - - # डिफ़ॉल्ट मान में सेटिंग रीसेट करें - settings.reset() - ``` - - === "CLI" - यदि आप कमांड लाइन इंटरफ़ेस पर ध्यान देते हैं, तो निम्नलिखित कमांड के माध्यम से अपनी सेटिंग्स को संशोधित कर सकते हैं: - ```bash - # एक सेटिंग अपडेट करें - yolo settings runs_dir='/path/to/runs' - - # एकाधिक सेटिंग अपडेट करें - yolo settings runs_dir='/path/to/runs' tensorboard=False - - # डिफ़ॉल्ट मान में सेटिंग्स को बराबरी में रीसेट करें - yolo settings reset - ``` - -### सेटिंग्स को समझना - -निम्नलिखित टेबल सेटिंग्स का अवलोकन प्रदान करता है, जबकि प्रति सेटिंग्स के लिए उदाहरण मान, डेटा प्रकार और संक्षेप में विवरण दिया गया है। - -| नाम | उदाहरण मान | डेटा प्रकार | विवरण | -|--------------------|-----------------------|-------------|----------------------------------------------------------------------------------------------------------------------------| -| `settings_version` | `'0.0.4'` | `str` | Ultralytics _settings_ संस्करण (Ultralytics [pip](https://pypi.org/project/ultralytics/) संस्करण से अलग होता है) | -| `datasets_dir` | `'/path/to/datasets'` | `str` | डेटासेट को संग्रहीत करने वाली निर्देशिका | | -| `weights_dir` | `'/path/to/weights'` | `str` | मॉडल वेट को संग्रहीत करने वाली निर्देशिका | -| `runs_dir` | `'/path/to/runs'` | `str` | प्रयोग दौड़ को संग्रहीत करने वाली निर्देशिका | -| `uuid` | `'a1b2c3d4'` | `str` | मौजूदा सेटिंग्स के लिए अद्वितीय पहचानकर्ता | -| `sync` | `True` | `bool` | Ultralytics और दुविधा को HUB में समकालीन रखें | -| `api_key` | `''` | `str` | Ultralytics HUB [API Key](https://hub.ultralytics.com/settings?tab=api+keys) | -| `clearml` | `True` | `bool` | ClearML लॉगिंग का उपयोग करें | -| `comet` | `True` | `bool` | यदि [Comet ML](https://bit.ly/yolov8-readme-comet) प्रयोग करें या नहीं experiment ट्रैकिंग और visualization | -| `dvc` | `True` | `bool` | शोध और संस्करण नियंत्रण के लिए [DVC for experiment tracking](https://dvc.org/doc/dvclive/ml-frameworks/yolo) का उपयोग करें | -| `hub` | `True` | `bool` | [Ultralytics HUB](https://hub.ultralytics.com) एकीकरण का उपयोग करें | -| `mlflow` | `True` | `bool` | एक्सपेरिमेंट ट्रैकिंग के लिए MLFlow का उपयोग करें | -| `neptune` | `True` | `bool` | एक्सपेरिमेंट ट्रैकिंग के लिए Neptune का उपयोग करें | -| `raytune` | `True` | `bool` | hyperparameter tuning के लिए Ray Tune का उपयोग करें | -| `tensorboard` | `True` | `bool` | विज़ुअलाइज़ेशन के लिए TensorBoard का उपयोग करें | -| `wandb` | `True` | `bool` | Weights & Biases logging का उपयोग करें | - -जब आप अपने परियोजनाओं या अनुभागों के माध्यम से चलते होने के द्वारा यात्रा करते हैं, तो इन सेटिंग्स पर सुधार करने के लिए लौटें। diff --git a/docs/hi/tasks/classify.md b/docs/hi/tasks/classify.md deleted file mode 100644 index d8da914d980..00000000000 --- a/docs/hi/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: YOLOv8 Classify मॉडल्स के बारे में जानें इमेज क्लासिफिकेशन के लिए। प्रीट्रेन्ड माॅडेल्स की सूची और ट्रेन, वेलिडेट, प्रेडिक्ट और एक्सपोर्ट माॅडेल्स के बारे में विस्तृत जानकारी प्राप्त करें। -keywords: Ultralytics, YOLOv8, इमेज क्लासिफिकेशन, प्रीट्रेन्ड माॅडेल्स, YOLOv8n-cls, ट्रेन, वेलिडेट, प्रेडिक्ट, माॅडेल एक्सपोर्ट ---- - -# इमेज क्लासिफिकेशन - -इमेज क्लासिफिकेशन उदाहरण - -इमेज क्लासिफिकेशन तीन कार्यों में से सबसे सरल है और पूरी तस्वीर को एक पूर्वनिर्धारित कक्षा में वर्गीकृत करना शामिल होता है। - -इमेज क्लासिफायर का आउटपुट एक एकल क्लास लेबल और एक विश्वास प्रामाणिकता स्कोर होता है। इमेज क्लासिफिकेशन उपयोगी होता है जब आपको केवल इसे जानने की जरूरत होती है कि एक इमेज किस कक्षा में सम्मिलित है और आपको नहीं पता होना चाहिए कि उस कक्षा के वस्त्राणु किस स्थान पर स्थित हैं या उनकी सटीक आकृति क्या है। - -!!! Tip "टिप" - - YOLOv8 Classify मॉडेल्स में `-cls` संकेतक प्रयोग किया जाता है, जैसे `yolov8n-cls.pt` और इन्हें पूर्व प्रशिक्षित किया जाता है [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) पर। - -## [मॉडेल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -यहां YOLOv8 पूर्व प्रशिक्षित Classify मॉडेल दिखाए गए हैं। Detect, Segment, और Pose मॉडेल्स [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्व प्रशिक्षित होते हैं, जबकि Classify मॉडेल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्व प्रशिक्षित होते हैं। - -[मॉडेल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) डाउनलोड पहली बार उपयोग पर ताजगी Ultralytics [प्रकाशन](https://github.com/ultralytics/assets/releases) से स्वतः होता है। - -| मॉडेल | आकार
(पिक्सेल) | तालिका
शीर्ष 1 | तालिका
शीर्ष 5 | स्पीड
सीपीयू ONNX
(मि. सेकंड) | स्पीड
A100 TensorRT
(मि. सेकंड) | पैरामीटर
(M) | FLOPs
(B) at 640 | -|----------------------------------------------------------------------------------------------|------------------------|------------------------|------------------------|------------------------------------------|--------------------------------------------|----------------------|--------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- **तालिका** मॉडेलों की ImageNet डेटासेट मान्यीकरण सेट पर सटीकता है। -
`yolo val classify data=path/to/ImageNet device=0` द्वारा पुनः उत्पन्न करें -- **स्पीड** एक [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इंस्टेंस का उपयोग करके ImageNet के वैल छवियों पर औसत जोड़ी गई है। -
`yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` द्वारा पुनः उत्पन्न करें - -## ट्रेन - -100 एपॉक्स के लिए MNIST160 डेटासेट पर YOLOv8n-cls को 64 इमेज आकार पर रिक्तियों के साथ ट्रेन करें। उपलब्ध विकल्पों की पूरी सूची के लिए [Configuration](/../usage/cfg.md) पेज देखें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडेल लोड करें - model = YOLO('yolov8n-cls.yaml') # YAML से एक नया मॉडेल बनाएं - model = YOLO('yolov8n-cls.pt') # पूर्व प्रशिक्षित मॉडेल लोड करें (ट्रेनिंग के लिए सिफारिश की जाती है) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # YAML से बनाएँ और भार ट्रांसफर करें - - # मॉडेल ट्रेन करें - results = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # YAML से नया मॉडेल बनाएं और अच्छे से प्रशिक्षण शुरू करें - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # पूर्व प्रशिक्षित *.pt मॉडेल से प्रशिक्षण शुरू करें - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # YAML से नया मॉडेल बनाएँ, उसमें पूर्व प्रशिक्षित भार भी स्थानांतरित करें और प्रशिक्षण शुरू करें - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### डेटासेट प्रारूप - -YOLO क्लासिफिकेशन डेटासेट प्रारूप [Dataset Guide](../../../datasets/classify/index.md) में विस्तृत रूप में दिया गया है। - -## वेलिडेट - -MNIST160 डेटासेट पर प्रशिक्षित YOLOv8n-cls मॉडेल की सटीकता का मूल्यांकन करें। कोई आर्गुमेंट चक्रवात नहीं करना चाहिए क्योंकि `मॉडेल` अपने प्रशिक्षण यथार्थ डेटा और आर्गुमेंट्स को स्मरण रखता है। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडेल लोड करें - model = YOLO('yolov8n-cls.pt') # एक आधिकारिक मॉडेल लोड करें - model = YOLO('path/to/best.pt') # एक स्वचालित मॉडेल लोड करें - - # मॉडेल का मूल्यांकन करें - metrics = model.val() # कोई आर्गुमेंट आवश्यक नहीं हैं, डेटासेट और सेटिंग्स याद रखे जाते हैं - metrics.top1 # शीर्ष1 सटीकता - metrics.top5 # शीर्ष5 सटीकता - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # आधिकारिक मॉडेल का मूल्यांकन करें - yolo classify val model=path/to/best.pt # कस्टम मॉडेल का मूल्यांकन करें - ``` - -## प्रेडिक्ट - -प्रशिक्षित YOLOv8n-cls मॉडेल का उपयोग तस्वीरों पर पूर्वानुमान चलाने के लिए करें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # मॉडेल लोड करें - model = YOLO('yolov8n-cls.pt') # एक आधिकारिक मॉडेल लोड करें - model = YOLO('path/to/best.pt') # एक स्वचालित मॉडेल लोड करें - - # मॉडेल के साथ पूर्वानुमान करें - results = model('https://ultralytics.com/images/bus.jpg') # एक इमेज पर पूर्वानुमान करें - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडेल के साथ पूर्वानुमान करें - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडेल के साथ पूर्वानुमान करें - ``` - -पूर्वानुमान पूरा होने के बाद निर्यात को सीधे पूर्वानुमानित मॉडेल पर लागू कर सकते हैं, जैसे `yolo predict model=yolov8n-cls.onnx`। एक्सपोर्ट पूर्ण होने के बाद, अपने मॉडेल के उपयोग के लिए आपको उपयोग उदाहरण दिखाए गए हैं। - -## एक्सपोर्ट - -YOLOv8n-cls मॉडल को ONNX, CoreML आदि जैसे विभिन्न प्रारूपों में निर्यात करें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडेल लोड करें - model = YOLO('yolov8n-cls.pt') # load an official model - model = YOLO('path/to/best.pt') # load a custom trained model - - # मॉडेल को निर्यात करें - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # export official model - yolo export model=path/to/best.pt format=onnx # export custom trained model - ``` - -टेबल में उपलब्ध YOLOv8-cls निर्यात प्रारूप निम्नानुसार हैं। निर्यात पूरा होने के बाद आप सीधे निर्यात किए गए मॉडेल पर पूर्व-आश्रिताओं की तरह पूर्वानुमान या मूल्यांकन कर सकते हैं, जैसे `yolo predict model=yolov8n-cls.onnx`। उपयोग की उदाहरण आपके मॉडेल के लिए निर्यात पूरा होने के बाद दिखाए गए हैं। - -| प्रारूप | `format` आर्गुमेंट | मॉडेल | मेटाडेटा | आर्गुमेंट्स | -|--------------------------------------------------------------------|--------------------|-------------------------------|----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -[Export](https://docs.ultralytics.com/modes/export/) पेज में `export` के पूरी विवरण देखें। diff --git a/docs/hi/tasks/detect.md b/docs/hi/tasks/detect.md deleted file mode 100644 index db0a830f7b2..00000000000 --- a/docs/hi/tasks/detect.md +++ /dev/null @@ -1,186 +0,0 @@ ---- -comments: true -description: Ultralytics द्वारा YOLOv8 के आधिकारिक दस्तावेज़ीकरण। Various प्रारूपों में मॉडल को प्रशिक्षित, मान्य करें, निरुपित और निर्यात करने का कैसे करें सीखें। विस्तृत प्रदर्शन आँकड़े समेत। -keywords: YOLOv8, Ultralytics, वस्तु पहचान, पूर्वप्रशिक्षित मॉडल, प्रशिक्षण, मान्यता, भविष्यवाणी, मॉडल निर्यात, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# वस्तु पहचान - -वस्तु पहचान उदाहरण - -वस्तु पहचान एक कार्य है जिसमें चित्र या वीडियो स्ट्रीम में वस्तुओं की स्थान और वर्ग की पहचान करने का समय शामिल होता है। - -वस्तु पहचान एक सेट होती है जिसमें वस्तुओं को घेरने वाले बाउंडिंग बॉक्स का पता लगाया जाता है, साथ ही प्रत्येक बॉक्स के लिए वर्ग लेबल और विश्वसनीयता स्कोर शामिल होते हैं। चित्र में हरी उड़ी रेस सामग्री डिटेक्ट करी, बांदर को डिटेक्ट करें. प्रतिस्थान से यह पता चलता है कि वस्तु कहाँ है या उसकी सटीक आकृति क्या है, परंतु कुछ तो हैं है। - -

-
- -
- देखें: पूर्व प्रशिक्षित Ultralytics YOLOv8 मॉडल के साथ वस्तु पहचान। -

- - -!!! Tip "टिप" - -YOLOv8 Detect मॉडल डिफ़ॉल्ट YOLOv8 मॉडल हैं, यानी `yolov8n.pt` और [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) पर प्रशिक्षित हैं। - -## [मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -YOLOv8 पूर्व प्रशिक्षित Detect मॉडल यहाँ दिखाए गए हैं। Detect, Segment और Pose मॉडल [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्वप्रशिक्षित होते हैं, जबकि Classify मॉडल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्वप्रशिक्षित होते हैं। - -[मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) पहली बार इस्तेमाल पर Ultralytics के नवीनतम [प्रकाशन](https://github.com/ultralytics/assets/releases) से स्वचालित रूप से डाउनलोड होते हैं। - -| मॉडल | साइज़
(pixels) | mAPval
50-95 | स्पीडCPU ONNX
(ms) | स्पीडA100 TensorRT
(ms) | पैराम्स
(M) | FLOPs
(B) | -|--------------------------------------------------------------------------------------|------------------------|----------------------|----------------------------|---------------------------------|---------------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- **mAPval** मान को [COCO val2017](https://cocodataset.org) डेटासेट पर सिंगल-मॉडेल सिंगल-स्केल के लिए है। -
`yolo` द्वारा पुनः उत्पन्न करें `के द्वारा विन्यास करें yolo val data=coco.yaml device=0` -- **Speed** [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) - इंस्टेंस का उपयोग करके COCO val छवियों पर औसत लिया जाता है। -
`yolo` के द्वारा पुनः उत्पन्न करें `के द्वारा विन्यास करें yolo val data=coco128.yaml batch=1 device=0|cpu` - -## प्रशिक्षण - -100 युगों में 640 आकृति वाले प्रशिक्षित योलोवी8 एन को COCO128 डेटासेट पर प्रशिक्षित करें। उपलब्ध तार्किक तर्कों की पूरी सूची के लिए [कॉन्फ़िगरेशन](/../usage/cfg.md) पृष्ठ देखें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n.yaml') # YAML से नया मॉडल बनाएँ - model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश किए गए पूर्वप्रशिक्षित मॉडल लोड करें - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML से बनाएं और भार ट्रांसफर करें और प्रशिक्षित करें - - # मॉडल को प्रशिक्षित करें - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAML से एक नया मॉडल बनाकर खाली से शुरू करें - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # पूर्व प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # यैतायत्मिक रूप से भार ट्रांसफर करके नया मॉडल बनाएँ और प्रशिक्षण शुरू करें - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### डेटासेट प्रारूप - -YOLO डिटेक्शन डेटासेट प्रारूप को [डेटासेट गाइड](../../../datasets/detect/index.md) में विस्तार से देखा जा सकता है। कृपया अपने मौजूदा डेटासेट को अन्य प्रारूपों (जैसे COCO आदि) से YOLO प्रारूप में बदलने के लिए [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें। - -## मान्यता - -COCO128 डेटासेट पर प्रशिक्षित YOLOv8n मॉडल की सटीकता को मान्यता दें। मॉडल प्रदर्शन से जुड़ी कोई विधि नहीं होनी चाहिए। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें - model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें - - # मॉडल की मान्यता जांचें - metrics = model.val() # तुलना करने के लिए कोई विधि की आवश्यकता नहीं है, डेटासेट और सेटिंग्स याद रखे जाते हैं - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # हर श्रेणी के map50-95 से संबंधित सूची - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # आधिकारिक मॉडल की मान्यता - yolo detect val model=path/to/best.pt # कस्टम मॉडल की मान्यता - ``` - -## भविष्यवाणी - -प्रशिक्षित YOLOv8n मॉडल का उपयोग चित्रों पर भविष्यवाणी करने के लिए करें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें - model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें - - # मॉडल के साथ भविष्यवाणी करें - results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर भविष्यवाणी करें - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ भविष्यवाणी - yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ भविष्यवाणी - ``` - -पूर्ण `predict` मोड़ विवरण को [भविष्यवाणी](https://docs.ultralytics.com/modes/predict/) पृष्ठ में देखें। - -## निर्यात - -YOLOv8n मॉडल को अन्य प्रारूप (जैसे ONNX, CoreML आदि) में निर्यात करें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें - model = YOLO('path/to/best.pt') # कस्टम प्रशिक्षित मॉडल लोड करें - - # मॉडल को निर्यात करें - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # आधिकारिक मॉडल को निर्यात करें - yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें - ``` - -उपलब्ध YOLOv8 निर्यात प्रारूप नीचे की सारणी में हैं। आप निर्यातित मॉडल पर सीधे भविष्यवाणी या मान्यता कर सकते हैं, जैसे 'yolo predict model=yolov8n.onnx' आदि। निर्यात पूर्ण होने के बाद आपके मॉडल के उपयोग के उदाहरण दिखाए जाते हैं। - -| प्रारूप | `format` तर्क | मॉडल | मेटाडाटा | तर्क | -|--------------------------------------------------------------------|---------------|---------------------------|----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -पूर्ण `export` विवरण को [निर्यात](https://docs.ultralytics.com/modes/export/) पृष्ठ में देखें। diff --git a/docs/hi/tasks/index.md b/docs/hi/tasks/index.md deleted file mode 100644 index 7aaf33bd4fa..00000000000 --- a/docs/hi/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: जानें YOLOv8 जो कि विभिन्न कंप्यूटर विजन कार्यों जैसे डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन और पोज़ एस्टिमेशन को कर सकता है| अपनें AI प्रोजेक्ट्स म इन टास्क का उपयोग के बारें म मर्यादित हो जाएं -keywords: Ultralytics, YOLOv8, डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन, पोज़ एस्टिमेशन, AI Framework, कंप्यूटर विजन कार्य ---- - -# Ultralytics YOLOv8 तास्क - -
-Ultralytics YOLO Supported टास्क्स - -YOLOv8 एक AI फ्रेमवर्क है जो मल्टीपल कंप्यूटर विजन **तास्क्स** को सपोर्ट करता है। इस फ्रेमवर्क का उपयोग [डिटेक्शन](detect.md), [सेग्मेंटेशन](segment.md), [क्लासिफिकेशन](classify.md), और [पोज़](pose.md) एस्टिमेशन को करने के लिए किया जा सकता हैं। हर टास्क का एक अलग उद्देश्य और यूज केस होता हैं। - -!!! Note "नोट" - - 🚧 हमारा मल्टी-भाषा डॉक्युमेंटेशन वर्तमान में निर्माणाधीन हैं, और हम उसे सुधारने के लिए मेहनत कर रहें हैं। आपकी सहानुभूति के लिए धन्यवाद! 🙏 - -

-
- -
- देखें: जांचें Ultralytics YOLO टास्क्स: वस्तु डिटेक्शन, सेग्मेंटेशन, ट्रैकिंग और पोज़ एस्टिमेशन। -

- -## [डिटेक्शन](detect.md) - -डिटेक्शन YOLOv8 द्वारा सपोर्ट किया जाने वाला प्राथमिक टास्क हैं। इसका मतलब होता हैं कि एक छवि या वीडियो फ्रेम में वस्तुओं को खोजें और उनके चारों ओर ग्रेडीयेशन बॉक्स बनाएँ। पायी गयी वस्तुओं को उनके फीचर्स के आधार पर विभिन्न श्रेणियों में वर्गीकृत किया जाता हैं। YOLOv8 एक ही छवि या वीडियो फ्रेम में कई वस्तुएं पहचान सकती हैं और उसे उच्च सटीकता और गति से कर सकती हैं। - -[डिटेक्शन उदाहरण](detect.md){ .md-button } - -## [सेग्मेंटेशन](segment.md) - -सेग्मेंटेशन एक टास्क हैं जिसमे एक छवि को उसकी सामग्री के आधार पर विभिन्न क्षेत्रों में विभाजित किया जाता हैं। प्रत्येक क्षेत्र को उसकी सामग्री के आधार पर एक लेबल दिया जाता हैं। यह टास्क छवि सेग्मेंटेशन और मेडिकल इमेजिंग जैसे एप्लिकेशन्स में उपयोगी होती हैं। YOLOv8 सेग्मेंटेशन करने के लिए U-Net आर्किटेक्चर का इस्तेमाल करता हैं। - -[सेग्मेंटेशन उदाहरण](segment.md){ .md-button } - -## [क्लासिफिकेशन](classify.md) - -क्लासिफिकेशन एक टास्क हैं जिसमे एक छवि को विभिन्न श्रेणियों में वर्गीकृत किया जाता हैं। YOLOv8 का उपयोग छवियों को उनकी सामग्री के आधार पर क्लासिफाई करने के लिए किया जा सकता हैं। यह क्लासिफिकेशन करने के लिए EfficientNet आर्किटेक्चर का उपयोग करता हैं। - -[क्लासिफिकेशन उदाहरण](classify.md){ .md-button } - -## [पोज़](pose.md) - -पोज़/कीपॉइंट डिटेक्शन एक टास्क हैं जिसमे एक छवि या वीडियो फ्रेम में विशेष बिंदुओं को खोजें। इन बिंदुओं को कीपॉइंट कहा जाता हैं और इनका उपयोग गति या पोज़ एस्टिमेशन करने के लिए किया जाता हैं। YOLOv8 एक छवि या वीडियो फ्रेम में उच्च सटीकता और गति से कीपॉइंट डिटेक्ट कर सकता हैं। - -[पोज़ उदाहरण](pose.md){ .md-button } - -## निष्कर्ष - -YOLOv8 डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन और कीपॉइंट डिटेक्शन जैसे मल्टीपल टास्क्स को सपोर्ट करता हैं। हर एक टास्क का अलग उद्देश्य और यूज केस होता हैं। इन टास्क्स के बीच अंतर को समझकर, आप अपने कंप्यूटर विजन एप्लिकेशन के लिए उचित टास्क का चुनाव कर सकते हैं। diff --git a/docs/hi/tasks/pose.md b/docs/hi/tasks/pose.md deleted file mode 100644 index 85fc6e4a9d1..00000000000 --- a/docs/hi/tasks/pose.md +++ /dev/null @@ -1,183 +0,0 @@ ---- -comments: true -description: Ultralytics YOLOv8 का उपयोग पोज निर्धारण कार्यों के लिए कैसे किया जाता है इसकी जानें। प्री-शिक्षित मॉडल ढूंढें, प्रशिक्षण, मान्यता प्राप्त करें, पूर्वानुमान लगाएं, और अपना खुद का निर्यात करें। -keywords: Ultralytics, YOLO, YOLOv8, pose estimation, keypoints detection, object detection, pre-trained models, machine learning, artificial intelligence ---- - -# पोज निर्धारण - -पोज निर्धारण उदाहरण - -पोज निर्धारण एक कार्य है जिसमें एक छवि में विशेष बिंदुओं के स्थान की पहचान करना शामिल होता है, जिसे आमतौर पर कीपॉइंट्स के रूप में कहा जाता है। कीपॉइंट्स विभिन्न अंगों, भूमिकाओं या अन्य विशिष्ट सुविधाओं आदि के रूप में वस्तु के विभिन्न हिस्सों को प्रतिष्ठित कर सकते हैं। कीपॉइंट्स के स्थान आमतौर पर 2D `[x, y]` या 3D `[x, y, दिखाई देने वाला]` कोआर्डिनेट के सेट के रूप में प्रदर्शित होते हैं। - -पोज निर्धारण मॉडल की उत्पादन एक छवि में वस्तु के कीपॉइंट्स को प्रतिष्ठित करने वाले कुछ बिंदुओं का सेट होती है, आमतौर पर हर बिंदु के लिए विश्वसनीयता स्कोर के साथ। पोज निर्धारण उचित विकल्प है जब आपको स्टीन में एक वस्तु के विशेष हिस्सों की पहचान करनी होती है और विभिन्न हिस्सों के लिए उनके स्थान की पहचान करनी होती है। - -

-
- -
- देखें: Ultralytics YOLOv8 के साथ पोज निर्धारण। -

- -!!! Tip "युक्ति" - - YOLOv8 _pose_ मॉडल में `-pose` सफिक्स का उपयोग किया जाता है, जैसे `yolov8n-pose.pt`। ये मॉडल [COCO कीपॉइंट](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) डेटासेट पर प्रशिक्षित होते हैं और विभिन्न पोज निर्धारण कार्यों के लिए उपयुक्त होते हैं। - -## [मॉडल्स](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -YOLOv8 पूर्वानुमानित पोज मॉडलस यहाँ दिखाए जाते हैं। पहचानें, अंश और पोज मॉडल मुख्यतः [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर प्रशिक्षित हैं, जबकि क्लासिफाई मॉडल्स को [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर प्रशिक्षित किया जाता है। - -पूर्वानुमानित मॉडल `Models` को Ultralytics के नवीनतम [रिलीज़](https://github.com/ultralytics/assets/releases) से स्वचालित रूप से डाउनलोड करेंगे। - -| मॉडल | आकार
(तत्व) | mAPपोज
50-95 | mAPपोज
50 | ह्वेग
CPU ONNX
(ms) | ह्वेग
A100 TensorRT
(ms) | पैराम्स
(M) | FLOPs
(B) | -|------------------------------------------------------------------------------------------------------|---------------------|----------------------|-------------------|--------------------------------|-------------------------------------|---------------------|-------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- **mAPval** मान एकल मॉडल एकल स्केल पर [COCO कीपॉइंट val2017](https://cocodataset.org) डेटासेट पर है। -
`yolo val pose data=coco-pose.yaml device=0` के द्वारा पुनरोत्पादित करें -- **Speed** [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इन्स्टेंस का उपयोग करते हुए COCO val छवियों पर औसतित गणना। -
`yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` के द्वारा पुनरार्चन करें - -## ट्रेन - -COCO128-pose डेटासेट पर YOLOv8-pose मॉडल को प्रशिक्षित करें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n-pose.yaml') # YAML से एक नया मॉडल बनाएँ - model = YOLO('yolov8n-pose.pt') # पूर्वानुमानित मॉडल लोड करें (प्रशिक्षण के लिए सिफारिश किया जाता है) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # YAML से बनाएँ और वजन स्थानांतरित करें - - # मॉडल को प्रशिक्षित करें - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAML से नया मॉडल बनाएँ और पूर्वानुमानित वजन स्थानांतरित करना शुरू करें - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # पूर्वानुमानित *.pt मॉडल से प्रशिक्षण शुरू करें - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # YAML से नया मॉडल बनाएँ, पूर्वानुमानित वजनों को स्थानांतरित करें और प्रशिक्षण शुरू करें - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### डेटासेट प्रारूप - -YOLO पोज डेटासेट प्रारूप को विस्तार से [डेटासेट गाइड](../../../datasets/pose/index.md) में दिया गया है। अपनी मौजूदा डेटासेट को अन्य प्रारूपों (जैसे कि COCO आदि) से YOLO प्रारूप में रूपांतरित करने के लिए कृपया [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें। - -## मान्यता प्राप्त करें - -COCO128-pose डेटासेट पर प्रशिक्षित YOLOv8n-pose मॉडल की सटीकता को मान्यता प्राप्त करें। `model` के रूप में कोई आर्ग्युमेंट पारित करने की आवश्यकता नहीं है प्रशिक्षण `data` और सेटिंग्स को मॉडल खिताबों के रूप में रखता है। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें - model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें - - # मॉडल की सटीकता मान्यता प्राप्त करें - metrics = model.val() # कोई आर्ग्युमेंट आवश्यक नहीं है, डेटासेट और सेटिंग्स याद रखा जाता है - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # प्रत्येक श्रेणी के map50-95 सूची में है - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # आधिकारिक मॉडल मान्यांकन करें - yolo pose val model=path/to/best.pt # कस्टम मॉडल को मान्यता प्राप्त करें - ``` - -## पूर्वानुमान लगाएं - -प्रशिक्षित YOLOv8n-pose मॉडल के साथ छवियों पर पूर्वानुमान चलाएं। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें - model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें - - # मॉडल के साथ पूर्वानुमान करें - results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर पूर्वानुमान करें - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ पूर्वानुमान लगाएं - yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ पूर्वानुमान लगाएं - ``` - -एक्सपोर्ट - -YOLOv8n पोज मॉडल को ONNX, CoreML जैसे अन्य प्रारूप में निर्यात करें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # एक मॉडल लोड करें - model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें - model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें - - # मॉडल को निर्यात करें - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # आधिकारिक मॉडल को निर्यात करें - yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें - ``` - -निर्यात के लिए उपलब्ध YOLOv8-pose निर्यात प्रारूप नीचे करें दिए गए हैं। आप निर्यात किए गए मॉडल पर सीधा पूर्वानुमान या मान्यता कर सकते हैं, उदाहरण के लिए `yolo predict model=yolov8n-pose.onnx`। निर्यात पूरा होने के बाद अपने मॉडल के उपयोग के उदाहरण दिखाए गए हैं। - -| प्रारूप | `format` आर्ग्युमेंट | मॉडल | मेटाडेटा | आर्ग्युमेंट। | -|--------------------------------------------------------------------|----------------------|--------------------------------|----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -निर्यात विवरण के लिए [निर्यात](https://docs.ultralytics.com/modes/export/) पृष्ठ देखें। diff --git a/docs/hi/tasks/segment.md b/docs/hi/tasks/segment.md deleted file mode 100644 index a5f5f413761..00000000000 --- a/docs/hi/tasks/segment.md +++ /dev/null @@ -1,187 +0,0 @@ ---- -comments: true -description: Ultralytics YOLO के साथ उदाहरण देखें कि कैसे instance segmentation मॉडल का उपयोग करें। प्रशिक्षण, मान्यता, छवि की भविष्यवाणी और मॉडल निर्यात पर निर्देश। -keywords: yolov8, instance segmentation, Ultralytics, COCO dataset, image segmentation, object detection, model training, model validation, image prediction, model export ---- - -# Instance Segmentation - -इंस्टेंस सेगमेंटेशन ऑब्जेक्ट डिटेक्शन से एक कदम आगे जाता है और छवि में व्यक्ति ऑब्जेक्ट की पहचान करता है और उन्हें छवि के बाकी हिस्से से विभाजित करता है। - -इंस्टेंस सेगमेंटेशन मॉडल का आउटपुट एक सेट मास्क या कंटोर होता है जो छवि में प्रत्येक ऑब्जेक्ट का संकेत देता है, साथ ही प्रत्येक ऑब्जेक्ट के लिए वर्ग लेबल और आत्मविश्वास स्कोर होता है। इंस्टेंस सेगमेंटेशन उपयोगी होता है जब आपको न केवल पता चलेगा कि छवि में ऑब्जेक्ट कहाँ हैं, बल्कि वास्तव में उनका वास्तविक आकार क्या है। - -

-
- -
- देखें: पायथन में पूर्व-प्रशिक्षित Ultralytics YOLOv8 मॉडल के साथ Segmentation चलाएं। -

- -!!! Tip "टिप" - - YOLOv8 Segment मॉडल `yolov8n-seg.pt` का उपयोग करते हैं, और इसे [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) पर पूरी प्रशिक्षित किया जाता है। - -## [मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -YOLOv8 पूर्व प्रशिक्षित Segment मॉडल यहां दिखाए गए हैं। Detect, Segment और Pose मॉडल [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्व प्रशिक्षित हैं, जबकि Classify मॉडल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्व प्रशिक्षित हैं। - -[मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) को उपयोग करके Ultralytics [रिलीज़](https://github.com/ultralytics/assets/releases) से पूर्ण डाउनलोड होते हैंं। - -| मॉडल | आकार
(पिक्सेल) | mAPबॉक्स
50-95 | mAPमास्क
50-95 | स्पीड
CPU ONNX
(मि.सेकंड) | स्पीड
A100 TensorRT
(मि.सेकंड) | पैराम्स
(M) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|------------------------|------------------------|------------------------|--------------------------------------|-------------------------------------------|---------------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- **mAPval** मान एकल मॉडल एकल स्केल के लिए [COCO val2017](https://cocodataset.org) डेटासेट पर होते हैं। -
`yolo val segment data=coco.yaml device=0` के द्वारा पुनर्जीवित किए जाएं। -- **स्पीड** एक [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इंस्टेंस का उपयोग करते हुए COCO val छवियों के बीच औसतन। -
`yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` के द्वारा पुनर्जीवित किए जा सकते हैं। - -## प्रशिक्षण - -100 एपॉक्स पर 640 छवि के आकार के COCO128-seg डेटासेट पर YOLOv8n-seg को प्रशिक्षित करें। उपलब्ध तार्किक तर्क की पूरी सूची के लिए [Configuration](/../usage/cfg.md) पृष्ठ देखें। - -!!! Example "उदाहरण" - - === "पायथन" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n-seg.yaml') # YAML से नया मॉडल बनाएं - model = YOLO('yolov8n-seg.pt') # पूर्व-प्रशिक्षित मॉडल लोड करें (प्रशिक्षण के लिए सिफारिश की जाती है) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # YAML से नए मॉडल बनाएं और धारित करें - - # मॉडल प्रशिक्षित करें - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAML से नया मॉडल बनाएं और शून्य से प्रशिक्षण शुरू करें - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # पूर्व-प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # YAML से नया मॉडल बनाएं, पूर्व-प्रशिक्षित वजनों को इसे ट्रांसफर करें और प्रशिक्षण शुरू करें - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### डेटासेट प्रारूप - -YOLO सेगमेंटेशन डेटासेट प्रारूप [डेटासेट गाइड](../../../datasets/segment/index.md) में विस्तार से देखा जा सकता है। कृपया अपने मौजूदा डेटासेट को अन्य प्रारूपों (जैसे कि COCO आदि) से YOLO प्रारूप में परिवर्तित करने के लिए [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें। - -## मान्यता - -COCO128-seg डेटासेट पर प्रशिक्षित YOLOv8n-seg मॉडल की सत्यापन करें। `मॉडल` पास करने के लिए कोई तर्क आवश्यक नहीं होता है क्योंकि `मॉडल` -प्रशिक्षण के `डेटा` और तर्कों का ध्यान रखता है। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें - model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें - - # मॉडल की सत्यापना करें - metrics = model.val() # कोई तर्क आवश्यक नहीं है, डेटा और सेटिंग्स याद रखे जाते हैं - metrics.box.map # map50-95(B) - metrics.box.map50 # map50(B) - metrics.box.map75 # map75(B) - metrics.box.maps # एक सूची है जिसमें प्रत्येक श्रेणी का map50-95(B) होता है - metrics.seg.map # map50-95(M) - metrics.seg.map50 # map50(M) - metrics.seg.map75 # map75(M) - metrics.seg.maps # एक सूची है जिसमें प्रत्येक श्रेणी का map50-95(M) होता है - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # आधिकारिक मॉडल की मान्यता - yolo segment val model=path/to/best.pt # कस्टम मॉडल की मान्यता - ``` - -## भविष्यवाणी - -प्रशिक्षित YOLOv8n-seg मॉडल का उपयोग छवियों पर भविष्यवाणी करने के लिए करें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें - model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें - - # मॉडल के साथ भविष्यवाणी करें - results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर भविष्यवाणी करें - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ भविष्यवाणी करें - yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ भविष्यवाणी करें - ``` - -भविष्यवाणी मोड के पूर्ण विवरण को [Predict](https://docs.ultralytics.com/modes/predict/) पृष्ठ में देखें। - -## निर्यात - -YOLOv8n-seg मॉडल को ONNX, CoreML आदि जैसे अन्य प्रारूप में निर्यात करें। - -!!! Example "उदाहरण" - - === "Python" - - ```python - from ultralytics import YOLO - - # मॉडल लोड करें - model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें - model = YOLO('path/to/best.pt') # कस्टम प्रशिक्षित मॉडल लोड करें - - # मॉडल निर्यात करें - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # आधिकारिक मॉडल को निर्यात करें - yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें - ``` - -YOLOv8-seg निर्यात प्रारूप निम्नलिखित तालिका में बताए गए हैं। आप निर्यात किए गए मॉडल पर सीधे भविष्यवाणी या मान्यता कर सकते हैं, अर्थात `yolo predict model=yolov8n-seg.onnx`। निर्यात होने के बाद अपने मॉडल के लिए उपयोग के उदाहरण देखें। - -| प्रारूप | `format` Argument | मॉडल | मेटाडेटा | तर्क | -|--------------------------------------------------------------------|-------------------|-------------------------------|----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | - -[Export](https://docs.ultralytics.com/modes/export/) पृष्ठ में पूर्ण `निर्यात` विवरण देखें। diff --git a/docs/ja/datasets/index.md b/docs/ja/datasets/index.md deleted file mode 100644 index 786a8b95b6f..00000000000 --- a/docs/ja/datasets/index.md +++ /dev/null @@ -1,127 +0,0 @@ ---- -comments: true -description: Ultralyticsがサポートするオブジェクト検出、セグメンテーション、ポーズ推定、画像分類、マルチオブジェクト追跡に対応した各種コンピュータビジョンデータセットを探求します。 -keywords: コンピュータビジョン, データセット, Ultralytics, YOLO, オブジェクト検出, インスタンスセグメンテーション, ポーズ推定, 画像分類, マルチオブジェクト追跡 ---- - -# データセット概要 - -Ultralyticsは、検出、インスタンスセグメンテーション、ポーズ推定、分類、マルチオブジェクト追跡などのコンピュータビジョンタスクを容易にするために、様々なデータセットをサポートしています。以下は主要なUltralyticsデータセットのリストであり、それに続いて各コンピュータビジョンタスクの概要と関連するデータセットが記載されています。 - -!!! Note "ノート" - - 🚧 当社の多言語ドキュメントは現在作成中であり、改善のため頑張って作業しています。ご理解いただいてありがとうございます! 🙏 - -## [検出データセット](../../datasets/detect/index.md) - -バウンディングボックスオブジェクト検出は、画像内のオブジェクトを検出し、各オブジェクトの周りにバウンディングボックスを描くことによって局在化するコンピュータビジョン技術です。 - -- [Argoverse](../../datasets/detect/argoverse.md): 都市環境からの3D追跡と運動予測データを含むデータセットで、詳細なアノテーションが付けられています。 -- [COCO](../../datasets/detect/coco.md): オブジェクト検出、セグメンテーション、キャプショニング用に設計された大規模データセットで、20万以上のラベル付き画像が含まれています。 -- [COCO8](../../datasets/detect/coco8.md): COCO trainとCOCO valの最初の4画像を含み、クイックテストに適しています。 -- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): 世界中から収集された小麦頭画像のデータセットで、オブジェクト検出と局在化タスク用です。 -- [Objects365](../../datasets/detect/objects365.md): 365のオブジェクトカテゴリと60万以上のアノテート画像を含む高品質の大規模オブジェクト検出データセットです。 -- [OpenImagesV7](../../datasets/detect/open-images-v7.md): Googleによる総合的なデータセットで、170万のトレイン画像と42kのバリデーション画像を含んでいます。 -- [SKU-110K](../../datasets/detect/sku-110k.md): 小売環境での密集したオブジェクト検出を特徴とするデータセットで、11Kの画像と170万のバウンディングボックスがあります。 -- [VisDrone](../../datasets/detect/visdrone.md): ドローンがキャプチャした映像からのオブジェクト検出とマルチオブジェクト追跡データを含むデータセットで、1万以上の画像とビデオシーケンスがあります。 -- [VOC](../../datasets/detect/voc.md): パスカルビジュアルオブジェクトクラス(VOC)データセットで、オブジェクト検出とセグメンテーション用に、20のオブジェクトクラスと11K以上の画像が含まれています。 -- [xView](../../datasets/detect/xview.md): 上空画像でのオブジェクト検出用データセットで、60のオブジェクトカテゴリを含み、100万以上のアノテートオブジェクトが含まれています。 - -## [インスタンスセグメンテーションデータセット](../../datasets/segment/index.md) - -インスタンスセグメンテーションは、画像内のオブジェクトをピクセルレベルで識別し、局在化するコンピュータビジョン技術です。 - -- [COCO](../../datasets/segment/coco.md): オブジェクト検出、セグメンテーション、キャプショニングタスク用に設計された大規模データセットで、20万以上のラベル付き画像が含まれています。 -- [COCO8-seg](../../datasets/segment/coco8-seg.md): セグメンテーションアノテーションを含む8つのCOCO画像を含んだ、より小さなインスタンスセグメンテーションタスク用データセットです。 - -## [ポーズ推定](../../datasets/pose/index.md) - -ポーズ推定は、カメラや世界座標系に対するオブジェクトのポーズを決定するために使用される技術です。 - -- [COCO](../../datasets/pose/coco.md): ポーズ推定タスク用に設計された大規模データセットで、人間のポーズアノテーションが含まれています。 -- [COCO8-pose](../../datasets/pose/coco8-pose.md): 人間のポーズアノテーションを含む8つのCOCO画像を含んだ、小規模のポーズ推定タスク用データセットです。 -- [Tiger-pose](../../datasets/pose/tiger-pose.md): タイガーのポーズ推定タスク用に、263枚の画像で構成され、1匹のタイガーに対して12個のキーポイントがアノテートされたコンパクトなデータセットです。 - -## [分類](../../datasets/classify/index.md) - -画像分類は、そのビジュアルコンテンツに基づいて一つまたは複数の定義済みクラスやカテゴリに画像を分類するコンピュータビジョンタスクです。 - -- [Caltech 101](../../datasets/classify/caltech101.md): 101のオブジェクトカテゴリを含む画像で構成された、画像分類タスク用データセッ トです。 -- [Caltech 256](../../datasets/classify/caltech256.md): Caltech 101の拡張版で、256のオブジェクトカテゴリとより難易度の高い画像が含まれています。 -- [CIFAR-10](../../datasets/classify/cifar10.md): 10クラスに60Kの32x32カラー画像が含まれるデータセットで、クラスごとに6Kの画像があります。 -- [CIFAR-100](../../datasets/classify/cifar100.md): CIFAR-10の拡張版で、100のオブジェクトカテゴリとクラスごとに600の画像が含まれています。 -- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): 画像分類タスク用の70,000枚のグレースケールのファッションカテゴリ画像で構成されるデータセットです。 -- [ImageNet](../../datasets/classify/imagenet.md): オブジェクト検出および画像分類用の大規模データセットで、1400万枚を超える画像と20,000カテゴリが含まれています。 -- [ImageNet-10](../../datasets/classify/imagenet10.md): ImageNetのより小さなサブセットで、高速な実験とテストに適した10カテゴリが含まれています。 -- [Imagenette](../../datasets/classify/imagenette.md): ImageNetから抽出された10個の簡単に識別可能なクラスを含む、より小さなサブセットです。 -- [Imagewoof](../../datasets/classify/imagewoof.md): ImageNetから抽出された10の犬種カテゴリを含む、画像分類タスクにさらに挑戦的なサブセットです。 -- [MNIST](../../datasets/classify/mnist.md): 手書き数字の70,000枚のグレースケール画像で構成される画像分類タスク用データセットです。 - -## [指向性バウンディングボックス](../../datasets/obb/index.md) - -指向性バウンディングボックス(OBB)は、回転したバウンディングボックスを使用して画像内の斜めのオブジェクトを検出するためのコンピュータビジョン手法で、主に航空写真や衛星画像へ適用されます。 - -- [DOTAv2](../../datasets/obb/dota-v2.md): 170万インスタンスと11,268枚の画像を含む人気のOBB航空画像データセットです。 - -## [マルチオブジェクト追跡](../../datasets/track/index.md) - -マルチオブジェクト追跡は、複数オブジェクトをビデオシーケンスで時間を追って検出し、追跡するコンピュータビジョン技術です。 - -- [Argoverse](../../datasets/detect/argoverse.md): 都市環境からの3D追跡と運動予測データを含むデータセットで、マルチオブジェクト追跡タスクに富んだアノテーションがあります。 -- [VisDrone](../../datasets/detect/visdrone.md): ドローンがキャプチャした映像からのオブジェクト検出とマルチオブジェクト追跡データを含むデータセットで、1万以上の画像とビデオシーケンスがあります。 - -## 新しいデータセットの提供 - -新しいデータセットを提供するには、既存のインフラと適合するように複数のステップが必要です。以下が必要なステップです: - -### 新しいデータセットを提供する手順 - -1. **画像を収集**します:データセットに属する画像を収集します。これらは、公共データベースや自分のコレクションなど、さまざまなソースから収集することができます。 - -2. **画像をアノテート**します:これらの画像を、タスクに応じてバウンディングボックス、セグメント、またはキーポイントでアノテートします。 - -3. **アノテーションをエクスポート**します:これらのアノテーションを、UltralyticsがサポートしているYOLO `*.txt`ファイルフォーマットに変換します。 - -4. **データセットを編成**します:データセットを正しいフォルダ構造に配置します。`train/` および `val/` のトップレベルディレクトリーを持ち、各ディレクトリー内に `images/` および `labels/` のサブディレクトリーがあるべきです。 - - ``` - dataset/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **`data.yaml`ファイルを作成**します:データセットのルートディレクトリに、データセット、クラス、その他の必要な情報を記述する`data.yaml`ファイルを作成します。 - -6. **画像を最適化(オプショナル)**します:データセットのサイズを削減してより効率的な処理を行いたい場合は、以下のコードを使用して画像を最適化することができます。これは必須ではありませんが、データセットのサイズを小さくし、ダウンロード速度を上げるために推奨されます。 - -7. **データセットをZip**します:データセットフォルダ全体をzipファイルに圧縮します。 - -8. **ドキュメントとPRを作成**します:データセットに関するドキュメンテーションページを作成し、既存のフレームワークにどのように適合するかを説明します。その後、Pull Request (PR)を提出します。PRを提出する方法の詳細については、[Ultralyticsの貢献ガイドライン](https://docs.ultralytics.com/help/contributing)を参照してください。 - -### データセットを最適化してZipするためのサンプルコード - -!!! Example "データセットを最適化してZipする" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # データセットディレクトリを定義 - path = Path('path/to/dataset') - - # データセット内の画像を最適化 (オプショナル) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # 'path/to/dataset.zip'にデータセットをZip - zip_directory(path) - ``` - -これらのステップに従えば、Ultralyticsの既存の構造に適切に統合された新しいデータセットを提供することができます。 diff --git a/docs/ja/index.md b/docs/ja/index.md deleted file mode 100644 index d5666d834aa..00000000000 --- a/docs/ja/index.md +++ /dev/null @@ -1,83 +0,0 @@ ---- -comments: true -description: Ultralytics YOLOv8に関する完全ガイド。高速で高精度なオブジェクト検出・画像セグメンテーションモデル。インストール、予測、トレーニングチュートリアルなど。 -keywords: Ultralytics, YOLOv8, オブジェクト検出, 画像セグメンテーション, 機械学習, ディープラーニング, コンピュータビジョン, YOLOv8 インストール, YOLOv8 予測, YOLOv8 トレーニング, YOLO 歴史, YOLO ライセンス ---- - -
-

- - Ultralytics YOLOバナー -

- Ultralytics GitHub - space - Ultralytics LinkedIn - space - Ultralytics Twitter - space - Ultralytics YouTube - space - Ultralytics TikTok - space - Ultralytics Instagram - space - Ultralytics Discord -
-
- Ultralytics CI - Ultralytics コードカバレッジ - YOLOv8 引用情報 - Docker プル - Discord -
- Gradient上で実行 - Colabで開く - Kaggleで開く -
- -全く新しい[Ultralytics](https://ultralytics.com)の[YOLOv8](https://github.com/ultralytics/ultralytics)を紹介します。これは、実時間で動作するオブジェクト検出および画像セグメンテーションモデルの最新バージョンです。YOLOv8は、ディープラーニングとコンピュータビジョンの最先端の進歩に基づいており、速度と精度の面で比類のない性能を提供します。その合理化された設計により、エッジデバイスからクラウドAPIまで、さまざまなアプリケーションやハードウェアプラットフォームへの適応が容易です。 - -YOLOv8ドキュメントを探索し、その特徴と能力を理解し、活用するための包括的なリソースを提供します。機械学習の経験者であれ、分野の新入りであれ、このハブはあなたのプロジェクトでYOLOv8のポテンシャルを最大限に引き出すことを目指しています。 - -!!! Note "ノート" - - 🚧 多言語ドキュメントは現在作成中であり、改善に努めております。お待ちいただき、ありがとうございます! 🙏 - -## はじめに - -- pipで`ultralytics`を**インストール**し、数分で稼働   [:material-clock-fast: はじめに](quickstart.md){ .md-button } -- YOLOv8で新しい画像やビデオに**予測**   [:octicons-image-16: 画像で予測](modes/predict.md){ .md-button } -- 独自のカスタムデータセットで新しいYOLOv8モデルを**トレーニング**   [:fontawesome-solid-brain: モデルをトレーニング](modes/train.md){ .md-button } -- セグメント、クラス分け、ポーズ、トラッキングなどのYOLOv8タスクを**探求**   [:material-magnify-expand: タスクを探求](tasks/index.md){ .md-button } - -

-
- -
- 視聴: Google ColabでカスタムデータセットにYOLOv8モデルをトレーニングする方法。 -

- -## YOLO: 簡単な歴史 - -[YOLO](https://arxiv.org/abs/1506.02640)(You Only Look Once、一度だけ見る)は、ワシントン大学のJoseph RedmonとAli Farhadiによって開発された、流行のオブジェクト検出および画像セグメンテーションモデルです。2015年に発売されたYOLOは、その高速かつ正確さからすぐに人気を博しました。 - -- [YOLOv2](https://arxiv.org/abs/1612.08242)は、2016年にリリースされ、バッチ正規化、アンカーボックス、次元クラスタリングを導入し、オリジナルモデルを改善しました。 -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf)は、2018年により効率的なバックボーンネットワーク、複数のアンカー、空間ピラミッドプーリングを使用して、モデルの性能を一段と向上させました。 -- [YOLOv4](https://arxiv.org/abs/2004.10934)は2020年にリリースされ、モザイクデータオーギュメンテーション、新しいアンカーフリー検出ヘッド、新しい損失関数などの革新を導入しました。 -- [YOLOv5](https://github.com/ultralytics/yolov5)は、モデルの性能をさらに向上させ、ハイパーパラメータ最適化、統合実験トラッキング、一般的なエクスポート形式への自動エクスポートなどの新機能を追加しました。 -- [YOLOv6](https://github.com/meituan/YOLOv6)は、2022年に[Meituan](https://about.meituan.com/)によってオープンソース化され、同社の多くの自動配送ロボットで使用されています。 -- [YOLOv7](https://github.com/WongKinYiu/yolov7)は、COCOキーポイントデータセット上のポーズ推定などの追加タスクを追加しました。 -- [YOLOv8](https://github.com/ultralytics/ultralytics)は、UltralyticsによるYOLOの最新版です。最先端の最新モデルとして、YOLOv8は前バージョンの成功に基づき、性能、柔軟性、効率を向上させる新機能や改善を導入しています。YOLOv8は、[検出](tasks/detect.md)、[セグメンテーション](tasks/segment.md)、[ポーズ推定](tasks/pose.md)、[トラッキング](modes/track.md)、[分類](tasks/classify.md)など、視覚AIタスクの全範囲をサポートしています。この多才性により、ユーザーは多様なアプリケーションとドメインでYOLOv8の機能を活用することができます。 - -## YOLO ライセンス: UltralyticsのYOLOはどのようにライセンスされていますか? - -Ultralyticsは、さまざまなユースケースに対応するために2種類のライセンスオプションを提供しています: - -- **AGPL-3.0 ライセンス**: この[OSI認定](https://opensource.org/licenses/)のオープンソースライセンスは、学生や愛好家に理想的であり、オープンなコラボレーションと知識共有を奨励しています。詳細は[ライセンス](https://github.com/ultralytics/ultralytics/blob/main/LICENSE)ファイルをご覧ください。 -- **エンタープライズ ライセンス**: 商業用途に設計されたこのライセンスは、UltralyticsのソフトウェアおよびAIモデルを商業商品やサービスにシームレスに統合することを許可し、AGPL-3.0のオープンソース要件をバイパスできます。商業的なオファリングへの組み込みを含むシナリオであれば、[Ultralytics ライセンス](https://ultralytics.com/license)を通じてお問い合わせください。 - -私たちのライセンス戦略は、オープンソースプロジェクトに対するあらゆる改善がコミュニティに還元されることを確実にするために設計されています。私たちはオープンソースの原則を大切にしており、私たちの貢献が全ての人にとって有益な方法で利用可能であり、さらに拡張されることを保証することを使命としています。❤️ diff --git a/docs/ja/models/fast-sam.md b/docs/ja/models/fast-sam.md deleted file mode 100644 index 0f148b20093..00000000000 --- a/docs/ja/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: FastSAMは、画像内のオブジェクトをリアルタイムでセグメンテーションするためのCNNベースのソリューションです。利用者の対話、計算効率の向上、様々なビジョンタスクに対応可能です。 -keywords: FastSAM, 機械学習, CNNベースのソリューション, オブジェクトセグメンテーション, リアルタイムソリューション, Ultralytics, ビジョンタスク, 画像処理, 工業用途, ユーザー対話 ---- - -# Fast Segment Anything Model (FastSAM) - -Fast Segment Anything Model(FastSAM)は、セグメントエニシングタスクのための新しいリアルタイムのCNNベースのソリューションです。このタスクは、さまざまなユーザー対話のプロンプトに基づいて画像内の任意のオブジェクトをセグメント化することを目的としています。FastSAMは、優れた性能を維持しながら、計算要件を大幅に削減し、様々なビジョンタスクに実用的な選択肢となります。 - -![Fast Segment Anything Model (FastSAM) architecture overview](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## 概要 - -FastSAMは、[Segment Anything Model (SAM)](sam.md)の制約事項に対処するために設計されました。SAMは、大規模な計算リソースを要する重いTransformerモデルです。FastSAMは、セグメントエニシングタスクを2つの連続するステージに分割し、すべてのインスタンスセグメンテーションとプロンプトガイドの選択を行います。最初のステージでは、[YOLOv8-seg](../tasks/segment.md)を使用して、画像内のすべてのインスタンスのセグメンテーションマスクを生成します。2番目のステージでは、プロンプトに対応する領域を出力します。 - -## 主な特徴 - -1. **リアルタイムソリューション:** CNNの計算効率を活用することで、FastSAMはセグメントエニシングタスクのためのリアルタイムソリューションを提供し、迅速な結果を必要とする工業用途に価値をもたらします。 - -2. **効率と性能:** FastSAMは、計算およびリソースの要求を大幅に削減しながら、パフォーマンスの品質を損なうことなく、SAMと同等のパフォーマンスを達成します。これにより、リアルタイムアプリケーションが可能となります。 - -3. **プロンプトガイドのセグメンテーション:** FastSAMは、さまざまなユーザー対話のプロンプトに基づいて画像内の任意のオブジェクトをセグメント化することができます。これにより、様々なシナリオでの柔軟性と適応性が提供されます。 - -4. **YOLOv8-segに基づく:** FastSAMは、インスタンスセグメンテーションブランチを備えたオブジェクト検出器である[YOLOv8-seg](../tasks/segment.md)に基づいています。これにより、画像内のすべてのインスタンスのセグメンテーションマスクを効果的に生成することができます。 - -5. **ベンチマークでの競合力のある結果:** MS COCOのオブジェクトプロポーザルタスクにおいて、FastSAMは単一のNVIDIA RTX 3090上でのSAMよりもはるかに高速に高得点を獲得し、その効率性と能力を示しています。 - -6. **実用的な応用:** 提案されたアプローチは、現在の方法よりも数十倍または数百倍も高速な速度で、非常に高速なvisionタスクの新しい実用的なソリューションを提供します。 - -7. **モデルの圧縮の可能性:** FastSAMは、構造への人工的な事前条件を導入することにより、計算負荷を大幅に削減する可能な経路を示し、一般的なビジョンタスクの大規模モデルアーキテクチャの新たな可能性を開くことを示しています。 - -## 利用可能なモデル、サポートされるタスク、および動作モード - -この表は、利用可能なモデルとそれぞれの特定の事前学習済みウェイト、サポートされるタスク、およびInference、Validation、Training、Exportなどの異なる操作モードとの互換性を示しています。サポートされているモードは✅、サポートされていないモードは❌の絵文字で示されます。 - -| モデルの種類 | 事前学習済みウェイト | サポートされるタスク | Inference | Validation | Training | Export | -|-----------|----------------|----------------------------------------|-----------|------------|----------|--------| -| FastSAM-s | `FastSAM-s.pt` | [インスタンスセグメンテーション](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [インスタンスセグメンテーション](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## 使用例 - -FastSAMモデルは、Pythonアプリケーションに簡単に統合できます。Ultralyticsは、開発を効率化するためのユーザーフレンドリーなPython APIおよびCLIコマンドを提供しています。 - -### 予測の使用方法 - -画像のオブジェクト検出を実行するには、以下のように`predict`メソッドを使用します: - -!!! Example "例" - - === "Python" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # 推論元のソースを定義する - source = 'path/to/bus.jpg' - - # FastSAMモデルを作成する - model = FastSAM('FastSAM-s.pt') # または FastSAM-x.pt - - # 画像への推論を実行する - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # Prompt Processオブジェクトを準備する - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # Everything prompt - ann = prompt_process.everything_prompt() - - # バウンディングボックスのデフォルトの形状は [0,0,0,0] -> [x1,y1,x2,y2] - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # テキストプロンプト - ann = prompt_process.text_prompt(text='a photo of a dog') - - # ポイントプロンプト - # pointsのデフォルトは [[0,0]] [[x1,y1],[x2,y2]] - # point_labelのデフォルトは [0] [1,0] 0:background, 1:foreground - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # FastSAMモデルをロードし、それによってeverythingをセグメント化する - yolo segment predict model=FastSAM-s.pt source=path/to/bus.jpg imgsz=640 - ``` - -このスニペットは、事前学習済みモデルをロードし、イメージに対する予測を実行するシンプルさを示しています。 - -### 検証の使用方法 - -データセット上でモデルの検証を行うには、以下のようにします: - -!!! Example "例" - - === "Python" - ```python - from ultralytics import FastSAM - - # FastSAMモデルを作成する - model = FastSAM('FastSAM-s.pt') # または FastSAM-x.pt - - # モデルを検証する - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # FastSAMモデルをロードし、COCO8の例のデータセットで検証する(イメージサイズ:640) - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -FastSAMは、オブジェクトの検出とセグメンテーションを1つのクラスのオブジェクトに対してのみサポートしています。これは、すべてのオブジェクトを同じクラスとして認識し、セグメント化することを意味します。そのため、データセットを準備する際には、すべてのオブジェクトのカテゴリIDを0に変換する必要があります。 - -## FastSAM公式の使用方法 - -FastSAMは、[https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM)リポジトリから直接利用することもできます。以下は、FastSAMを使用するための一般的な手順の概要です。 - -### インストール - -1. FastSAMリポジトリをクローンする: - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. Python 3.9を使用したConda環境を作成してアクティベートする: - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. クローンされたリポジトリに移動し、必要なパッケージをインストールする: - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. CLIPモデルをインストールする: - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### 使用例 - -1. [モデルのチェックポイント](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing)をダウンロードします。 - -2. FastSAMを推論に使用します。以下は実行例です: - - - 画像内のすべてをセグメント化する: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - テキストプロンプトを使用して特定のオブジェクトをセグメント化する: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "the yellow dog" - ``` - - - バウンディングボックス内のオブジェクトをセグメント化する(xywh形式でボックス座標を指定します): - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - 特定のポイントの近くにあるオブジェクトをセグメント化する: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -さらに、FastSAMを[Colabデモ](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing)や[HuggingFaceウェブデモ](https://huggingface.co/spaces/An-619/FastSAM)で試すこともできます。 - -## 引用と謝辞 - -FastSAMの著者には、リアルタイムインスタンスセグメンテーションの分野での重要な貢献を称えたいと思います。 - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -FastSAMのオリジナルの論文は、[arXiv](https://arxiv.org/abs/2306.12156)で入手できます。著者は彼らの作品を広く公開し、コードベースは[GitHub](https://github.com/CASIA-IVA-Lab/FastSAM)でアクセスできるようにしています。私たちは、彼らがフィールドを進歩させ、その成果を広いコミュニティにアクセス可能にしてくれた彼らの努力に感謝しています。 diff --git a/docs/ja/models/index.md b/docs/ja/models/index.md deleted file mode 100644 index 490ac76fe17..00000000000 --- a/docs/ja/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: UltralyticsがサポートするYOLOファミリー、SAM、MobileSAM、FastSAM、YOLO-NAS、RT-DETRモデルの多様な範囲を探索し、CLIおよびPythonの使用例で始めましょう。 -keywords: Ultralytics, ドキュメント, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, モデル, アーキテクチャ, Python, CLI ---- - -# Ultralyticsがサポートするモデル - -Ultralyticsのモデルドキュメントへようこそ!我々は、[オブジェクト検出](../tasks/detect.md)、[インスタンスセグメンテーション](../tasks/segment.md)、[画像分類](../tasks/classify.md)、[ポーズ推定](../tasks/pose.md)、[多対象トラッキング](../modes/track.md)などの特定のタスクに特化した幅広いモデルのサポートを提供しています。Ultralyticsにあなたのモデルアーキテクチャを貢献したい場合は、[貢献ガイド](../../help/contributing.md)を確認してください。 - -!!! Note "注意" - - 🚧 現在、さまざまな言語でのドキュメントを構築中であり、改善に努めています。ご理解ありがとうございます!🙏 - -## 特集モデル - -ここではサポートされている主要なモデルをいくつか紹介します: - -1. **[YOLOv3](yolov3.md)**:Joseph RedmonによるYOLOモデルファミリーの第三世代で、効率的なリアルタイムオブジェクト検出能力で知られています。 -2. **[YOLOv4](yolov4.md)**:2020年にAlexey BochkovskiyによってリリースされたYOLOv3のdarknetネイティブアップデートです。 -3. **[YOLOv5](yolov5.md)**:UltralyticsによるYOLOアーキテクチャの改良版で、以前のバージョンと比較してパフォーマンスと速度のトレードオフが向上しています。 -4. **[YOLOv6](yolov6.md)**:2022年に[美団](https://about.meituan.com/)によってリリースされ、同社の多数の自動配送ロボットで使用されています。 -5. **[YOLOv7](yolov7.md)**:YOLOv4の著者によって2022年にリリースされたYOLOモデルのアップデートです。 -6. **[YOLOv8](yolov8.md) 新機能 🚀**:YOLOファミリーの最新バージョンで、例えばインスタンスセグメンテーション、ポーズ/キーポイント推定、分類などの機能が強化されています。 -7. **[Segment Anything Model (SAM)](sam.md)**:MetaのSegment Anything Model (SAM)です。 -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**:慶應義塾大学によるモバイルアプリケーションのためのMobileSAMです。 -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**:中国科学院自動化研究所、画像及びビデオ解析グループのFastSAMです。 -10. **[YOLO-NAS](yolo-nas.md)**:YOLO Neural Architecture Search (NAS)モデルです。 -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)**:百度のPaddlePaddle Realtime Detection Transformer (RT-DETR)モデルです。 - -

-
- -
- 視聴: Ultralytics YOLOモデルをわずか数行のコードで実行します。 -

- -## Getting Started: 使用例 - -この例は、YOLOのトレーニングと推論の簡単な例を提供します。これらおよびその他の[モード](../modes/index.md)についての完全なドキュメントについては、[Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md)、[Export](../modes/export.md)のドキュメントページを参照してください。 - -以下の例は、オブジェクト検出のためのYOLOv8 [Detect](../tasks/detect.md) モデルについてです。追加のサポートされるタスクについては、[Segment](../tasks/segment.md)、[Classify](../tasks/classify.md)、[Pose](../tasks/pose.md)のドキュメントを参照してください。 - -!!! Example "例" - - === "Python" - - PyTorchの事前訓練済み`*.pt`モデルや構成`*.yaml`ファイルは、`YOLO()`、`SAM()`、`NAS()`、`RTDETR()`クラスに渡して、Pythonでモデルインスタンスを作成することができます: - - ```python - from ultralytics import YOLO - - # COCOで事前訓練されたYOLOv8nモデルをロードする - model = YOLO('yolov8n.pt') - - # モデル情報を表示する(任意) - model.info() - - # モデルをCOCO8の例示データセットで100エポックトレーニングする - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg'画像でYOLOv8nモデルを用いた推論を実行する - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - モデルを直接実行するためのCLIコマンドが利用可能です: - - ```bash - # COCOで事前訓練されたYOLOv8nモデルをロードし、COCO8の例示データセットで100エポックトレーニングする - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCOで事前訓練されたYOLOv8nモデルをロードし、'bus.jpg'画像で推論を実行する - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## 新しいモデルの貢献 - -Ultralyticsにあなたのモデルを貢献することに興味がありますか?素晴らしいです!我々は常にモデルのポートフォリオを拡張することに興味があります。 - -1. **リポジトリをフォークする**:[Ultralytics GitHubリポジトリ](https://github.com/ultralytics/ultralytics)をフォークすることから始めます。 - -2. **あなたのフォークをクローンする**:あなたのフォークをローカルマシンにクローンし、作業を行う新しいブランチを作成します。 - -3. **あなたのモデルを実装する**:[貢献ガイド](../../help/contributing.md)に示されているコーディング規格および指針に従ってモデルを追加します。 - -4. **徹底的にテストする**:パイプラインの一部としてだけでなく、単独でモデルを厳密にテストすることを確認してください。 - -5. **プルリクエストを作成する**:モデルに満足したら、レビューのために本リポジトリにプルリクエストを作成します。 - -6. **コードレビュー&マージ**:レビュー後、モデルが我々の基準を満たしている場合、本リポジトリにマージされます。 - -詳細な手順については、[貢献ガイド](../../help/contributing.md)を参照してください。 diff --git a/docs/ja/models/mobile-sam.md b/docs/ja/models/mobile-sam.md deleted file mode 100644 index 53414f5fc0c..00000000000 --- a/docs/ja/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: Ultralyticsフレームワーク内でMobileSAMをダウンロードしてテストする方法、MobileSAMの実装、オリジナルのSAMとの比較について詳しく知ることができます。今日からモバイルアプリケーションを改善しましょう。 -keywords: MobileSAM, Ultralytics, SAM, モバイルアプリケーション, Arxiv, GPU, API, 画像エンコーダ, マスクデコーダ, モデルのダウンロード, テスト方法 ---- - -![MobileSAM ロゴ](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# Mobile Segment Anything(MobileSAM) - -MobileSAM論文が[arXiv](https://arxiv.org/pdf/2306.14289.pdf)で利用可能になりました。 - -CPU上で動作するMobileSAMのデモは、[こちらのデモリンク](https://huggingface.co/spaces/dhkim2810/MobileSAM)からアクセスできます。Mac i5 CPU上では、約3秒かかります。Hugging Faceのデモでは、インターフェースと低性能なCPUが遅い応答に寄与していますが、効果的に動作し続けます。 - -MobileSAMは、[Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything)、[AnyLabeling](https://github.com/vietanhdev/anylabeling)、および[Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D)など、さまざまなプロジェクトで実装されています。 - -MobileSAMは、100kのデータセット(元の画像の1%)を単一のGPUで学習し、1日未満で訓練が完了します。このトレーニングのコードは将来公開される予定です。 - -## 利用可能なモデル、サポートされているタスク、および動作モード - -この表は、利用可能なモデルとそれぞれの固有の事前学習重み、サポートされているタスク、および[予測](../modes/predict.md)、[検証](../modes/val.md)、[訓練](../modes/train.md)、および[エクスポート](../modes/export.md)のようなさまざまな動作モードに対する互換性を示しています。`✅`は対応しているモード、`❌`は対応していないモードを示しています。 - -| モデルタイプ | 事前学習重み | サポートされているタスク | 予測 | 検証 | 訓練 | エクスポート | -|-----------|-----------------|----------------------------------------|----|----|----|--------| -| MobileSAM | `mobile_sam.pt` | [インスタンスセグメンテーション](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## SAMからMobileSAMへの移行 - -MobileSAMは、オリジナルのSAMと同じパイプラインを維持しているため、オリジナルの前処理、後処理、およびその他のインタフェースを組み込んでいます。そのため、現在オリジナルのSAMを使用している場合でも、MobileSAMへの移行は最小限の労力で行うことができます。 - -MobileSAMは、オリジナルのSAMと同等のパフォーマンスを発揮し、イメージエンコーダを変更することで同じパイプラインを保持しています。具体的には、元の重いViT-Hエンコーダ(632M)をより小さいTiny-ViT(5M)に置き換えています。単一のGPU上でMobileSAMは、おおよそ画像あたり12msで動作します:イメージエンコーダで8ms、マスクデコーダで4msです。 - -次の表は、ViTベースのイメージエンコーダの比較です: - -| イメージエンコーダ | オリジナルのSAM | MobileSAM | -|-----------|-----------|-----------| -| パラメーター | 611M | 5M | -| 速度 | 452ms | 8ms | - -オリジナルのSAMとMobileSAMは、同じプロンプト誘導型マスクデコーダを使用しています: - -| マスクデコーダ | オリジナルのSAM | MobileSAM | -|---------|-----------|-----------| -| パラメーター | 3.876M | 3.876M | -| 速度 | 4ms | 4ms | - -以下は、全体のパイプラインの比較です: - -| パイプライン全体(エンコーダ+デコーダ) | オリジナルのSAM | MobileSAM | -|----------------------|-----------|-----------| -| パラメーター | 615M | 9.66M | -| 速度 | 456ms | 12ms | - -MobileSAMとオリジナルのSAMのパフォーマンスは、ポイントとボックスをプロンプトとして使用した場合に示されます。 - -![ポイントをプロンプトにした画像](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![ボックスをプロンプトにした画像](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -MobileSAMは、現在のFastSAMよりも約5倍小さく、約7倍高速です。詳細は[MobileSAMプロジェクトページ](https://github.com/ChaoningZhang/MobileSAM)でご覧いただけます。 - -## UltralyticsでのMobileSAMのテスト - -オリジナルのSAMと同様に、ポイントとボックスのプロンプトの両方に対応したUltralyticsでの簡単なテスト方法を提供しています。 - -### モデルのダウンロード - -モデルは[こちらからダウンロード](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt)できます。 - -### ポイントプロンプト - -!!! Example "例" - - === "Python" - ```python - from ultralytics import SAM - - # モデルをロード - model = SAM('mobile_sam.pt') - - # ポイントプロンプトに基づいてセグメントを予測 - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### ボックスプロンプト - -!!! Example "例" - - === "Python" - ```python - from ultralytics import SAM - - # モデルをロード - model = SAM('mobile_sam.pt') - - # ボックスプロンプトに基づいてセグメントを予測 - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -`MobileSAM`と`SAM`は、同じAPIを使用して実装されています。詳細な使用方法については、[SAMページ](sam.md)をご覧ください。 - -## 引用と謝辞 - -MobileSAMが研究や開発のお役に立つ場合は、次の論文を引用していただけると幸いです: - -!!! Quote文 "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/ja/models/rtdetr.md b/docs/ja/models/rtdetr.md deleted file mode 100644 index 11b73b7a6c1..00000000000 --- a/docs/ja/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: RT-DETRは、Baiduによって開発された、高速かつ高精度なリアルタイムオブジェクト検出器です。Vision Transformers(ViT)の力を借りて、マルチスケールの特徴を効率的に処理します。RT-DETRは非常に適応性があり、再学習せずに異なるデコーダーレイヤーを使用して推論速度を柔軟に調整できます。このモデルは、TensorRTを使用したCUDAなどの高速エンドバックエンドで優れた性能を発揮し、多くの他のリアルタイムオブジェクト検出器を凌駕します。 -keywords: RT-DETR, Baidu, Vision Transformers, object detection, real-time performance, CUDA, TensorRT, IoU-aware query selection, Ultralytics, Python API, PaddlePaddle ---- - -# BaiduのRT-DETR: Vision Transformerベースのリアルタイムオブジェクト検出器 - -## 概要 - -Baiduが開発したリアルタイム検出Transformer(RT-DETR)は、高い精度を維持しながらリアルタイム性能を提供する最先端のエンドツーエンドのオブジェクト検出器です。Vision Transformers(ViT)の力を借りて、マルチスケールの特徴を効率的に処理することにより、RT-DETRは高い適応性を持ちます。再学習せずに異なるデコーダーレイヤーを使用して推論速度を柔軟に調整できるため、このモデルはTensorRTを使用したCUDAなどの高速バックエンドで多くの他のリアルタイムオブジェクト検出器を凌駕します。 - -![モデルの例](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**BaiduのRT-DETRの概要。** RT-DETRのモデルアーキテクチャダイアグラムでは、バックボーンの最後の3つのステージ{S3、S4、S5}がエンコーダーへの入力として表示されます。効率的なハイブリッドエンコーダーは、マルチスケールの特徴をイントラスケール特徴の相互作用(AIFI)とクロススケール特徴融合モジュール(CCFM)を介して画像特徴のシーケンスに変換します。IoU-awareクエリ選択は、デコーダーの初期オブジェクトクエリとして固定数の画像特徴を選択するために使用されます。最後に、デコーダーは補助予測ヘッドとともに、オブジェクトクエリを反復最適化してボックスと信頼スコアを生成します([出典](https://arxiv.org/pdf/2304.08069.pdf))。 - -### 主な特徴 - -- **効率的なハイブリッドエンコーダー:** BaiduのRT-DETRは、マルチスケールの特徴をイントラスケールの相互作用とクロススケールの融合を分離することで処理する効率的なハイブリッドエンコーダーを使用しています。このユニークなVision Transformersベースの設計により、計算コストを削減し、リアルタイムオブジェクト検出を実現しています。 -- **IoU-awareクエリ選択:** BaiduのRT-DETRは、IoU-awareクエリ選択を活用してオブジェクトクエリの初期化を改善します。これにより、モデルはシーン内の関連性の高いオブジェクトに焦点を当てて検出の精度を向上させることができます。 -- **適応可能な推論速度:** BaiduのRT-DETRは、再学習せずに異なるデコーダーレイヤーを使用して推論速度を柔軟に調整することができます。この適応性により、さまざまなリアルタイムオブジェクト検出シナリオでの実用的な応用が容易になります。 - -## 事前学習済みモデル - -Ultralytics Python APIは、異なるスケールの事前学習済みPaddlePaddle RT-DETRモデルを提供しています。 - -- RT-DETR-L:COCO val2017で53.0%のAP、T4 GPUで114 FPS -- RT-DETR-X:COCO val2017で54.8%のAP、T4 GPUで74 FPS - -## 使用例 - -この例では、RT-DETRの訓練と推論の簡単な例を提供します。これらと他の[モード](../modes/index.md)の詳しいドキュメントについては、[Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md)、および[Export](../modes/export.md)ドキュメントページを参照してください。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import RTDETR - - # COCOで事前学習済みのRT-DETR-lモデルをロードします - model = RTDETR('rtdetr-l.pt') - - # モデル情報を表示します(オプション) - model.info() - - # COCO8の例のデータセットでモデルを100エポックトレーニングします - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg'画像でRT-DETR-lモデルで推論を実行します - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # COCOで事前学習済みのRT-DETR-lモデルをロードし、COCO8の例のデータセットで100エポックトレーニングします - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCOで事前学習済みのRT-DETR-lモデルをロードし、'bus.jpg'画像で推論を実行します - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## サポートされているタスクとモード - -この表には、各モデルがサポートするタスク、特定の事前学習済み重み、およびサポートされるさまざまなモード([Train](../modes/train.md)、[Val](../modes/val.md)、[Predict](../modes/predict.md)、[Export](../modes/export.md))が✅絵文字で示されている情報が示されています。 - -| モデルの種類 | 事前学習済み重み | サポートされるタスク | 推論 | 検証 | 訓練 | エクスポート | -|---------------------|---------------|--------------------------------|----|----|----|--------| -| RT-DETR Large | `rtdetr-l.pt` | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR Extra-Large | `rtdetr-x.pt` | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## 引用と謝辞 - -研究や開発の中でBaiduのRT-DETRを使用する場合は、[元の論文](https://arxiv.org/abs/2304.08069)を引用してください。 - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -私たちは、Baiduと[PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection)チームに、コンピュータビジョンコミュニティ向けのこの貴重なリソースを作成しメンテナンスしていただいたことに感謝いたします。Vision Transformersベースのリアルタイムオブジェクト検出器であるRT-DETRの開発による、彼らのフィールドへの貢献は非常に評価されています。 - -*Keywords: RT-DETR, Transformer, ViT, Vision Transformers, Baidu RT-DETR, PaddlePaddle, Paddle Paddle RT-DETR, real-time object detection, Vision Transformers-based object detection, pre-trained PaddlePaddle RT-DETR models, Baidu's RT-DETR usage, Ultralytics Python API* diff --git a/docs/ja/models/sam.md b/docs/ja/models/sam.md deleted file mode 100644 index ae63eb1fbb6..00000000000 --- a/docs/ja/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: リアルタイムの画像セグメンテーションを可能にするウルトラリティクスの最先端Segment Anything Model (SAM)を紹介します。SAMのプロンプト可能なセグメンテーション、ゼロショットパフォーマンス、使用方法について学びましょう。 -keywords: Ultralytics, 画像セグメンテーション, Segment Anything Model, SAM, SA-1B データセット, リアルタイムパフォーマンス, ゼロショット転送, 物体検出, 画像解析, 機械学習 ---- - -# Segment Anything Model (SAM) - -ウルトラリティクスのSegment Anything Model(SAM)へようこそ。この革新的なモデルは、プロンプト可能な画像セグメンテーションを実現し、リアルタイムのパフォーマンスで画期的な成果を上げ、この分野で新たな基準を設定しました。 - -## SAMの紹介: Segment Anything Model - -Segment Anything Model(SAM)は、画像解析タスクにおける柔軟なセグメンテーションを可能にする最先端の画像セグメンテーションモデルです。SAMは、セグメンテーションという新しいモデル、タスク、データセットを導入した画期的なプロジェクト「Segment Anything」の中核をなしています。 - -SAMの高度な設計により、新しい画像分布やタスクに事前の知識なしで適応するゼロショット転送の機能を持っています。豊富な[SA-1B データセット](https://ai.facebook.com/datasets/segment-anything/)でトレーニングされたSAMは、1億以上のマスクを含む1,100万枚以上の厳選された画像に広がる自動的にアノテーションされたセグメンテーションマスクを備えており、多くの場合、前向きに監督された結果を上回る卓越したゼロショットパフォーマンスを発揮しています。 - -![データセットサンプルイメージ](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -新たに導入されたSA-1Bデータセットからガイドマスクを重畳した例の画像です。SA-1Bには、多様な高解像度のライセンス画像と11億件以上の高品質のセグメンテーションマスクが含まれています。これらのマスクは、SAMによって完全自動的に注釈付けされ、人間の評価と数多くの実験で高品質と多様性が確認されています。画像は可視化のために画像あたりのマスクの数でグループ化されています(平均でおおよそ100個のマスクがあります)。 - -## Segment Anything Model (SAM)の主な特徴 - -- **プロンプト可能なセグメンテーションタスク:** SAMは、プロンプト(オブジェクトを特定する空間的なまたはテキスト的な手がかり)から有効なセグメンテーションマスクを生成するように設計されています。 -- **高度なアーキテクチャ:** Segment Anything Modelは、強力な画像エンコーダ、プロンプトエンコーダ、軽量のマスクデコーダを採用しています。このユニークなアーキテクチャにより、柔軟なプロンプティング、リアルタイムのマスク計算、セグメンテーションタスクの曖昧さの認識が可能です。 -- **SA-1Bデータセット:** Segment Anythingプロジェクトによって導入されたSA-1Bデータセットは、1,100万枚以上の画像に1,000,000,000件以上のマスクを提供します。これまでで最も大規模なセグメンテーションデータセットであり、SAMに多様で大規模なトレーニングデータソースを提供します。 -- **ゼロショットパフォーマンス:** SAMは、さまざまなセグメンテーションタスクで優れたゼロショットパフォーマンスを発揮し、プロンプトエンジニアリングの最小限の必要性で多様なアプリケーションに即座に使用できるツールとなります。 - -Segment Anything ModelおよびSA-1Bデータセットの詳細については、[Segment Anything website](https://segment-anything.com)をご覧いただくか、研究論文[Segment Anything](https://arxiv.org/abs/2304.02643)をご覧ください。 - -## 使用可能なモデル、サポートされるタスク、および動作モード - -このテーブルでは、使用可能なモデルとその特定の事前トレーニング済み重み、サポートされているタスク、およびInference、Validation、Training、Exportなどのさまざまな操作モードに対する互換性を示しています。サポートされるモードは✅の絵文字で表示され、サポートされていないモードは❌の絵文字で表示されます。 - -| モデルの種類 | 事前トレーニング済みの重み | サポートされているタスク | Inference | Validation | Training | Export | -|-----------|---------------|---------------------------------------------------------------|-----------|------------|----------|--------| -| SAM base | `sam_b.pt` | [Instance Segmentation(インスタンスセグメンテーション)](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| SAM large | `sam_l.pt` | [Instance Segmentation(インスタンスセグメンテーション)](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## SAMの使用方法: 画像セグメンテーションにおける柔軟性とパワー - -Segment Anything Modelは、トレーニングデータを超えた多くのダウンストリームタスクに使用することができます。これにはエッジ検出、オブジェクトの提案生成、インスタンスセグメンテーション、および予備的なテキストからマスクへの予測などが含まれます。プロンプトエンジニアリングを使用することで、SAMはゼロショットの方法で新しいタスクとデータ分布にすばやく適応することができ、あらゆる画像セグメンテーションに関する柔軟で強力なツールとなります。 - -### SAMの予測の例 - -!!! Example "プロンプトでセグメントする" - - 与えられたプロンプトで画像をセグメンテーションします。 - - === "Python" - - ```python - from ultralytics import SAM - - # モデルをロード - model = SAM('sam_b.pt') - - # モデル情報を表示(オプション) - model.info() - - # バウンディングボックスのプロンプトで予測を実行 - model('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # ポイントのプロンプトで予測を実行 - model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "すべてをセグメントする" - - 画像全体をセグメンテーションします。 - - === "Python" - - ```python - from ultralytics import SAM - - # モデルをロード - model = SAM('sam_b.pt') - - # モデル情報を表示(オプション) - model.info() - - # 予測を実行 - model('path/to/image.jpg') - ``` - - === "CLI" - - ```bash - # SAMモデルで予測を実行 - yolo predict model=sam_b.pt source=path/to/image.jpg - ``` - -- ここでは、プロンプト(バウンディングボックス/ポイント/マスク)を指定しない場合は、画像全体がセグメンテーションされるロジックです。 - -!!! Example "SAMPredictorの例" - - 画像を一度設定し、イメージエンコーダを複数回実行することなく複数回プロンプト推論を実行できます。 - - === "プロンプト推論" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # SAMPredictorを作成 - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # イメージを設定する - predictor.set_image("ultralytics/assets/zidane.jpg") # 画像ファイルで設定する - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # np.ndarrayで設定する - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # イメージをリセットする - predictor.reset_image() - ``` - - 追加の引数を指定してすべてのセグメントを設定します。 - - === "すべてをセグメントする" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # SAMPredictorを作成 - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # 追加の引数でセグメント - results = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- `すべてをセグメントする` のための追加の引数の詳細は、[`Predictor/generate` リファレンス](../../../reference/models/sam/predict.md)を参照してください。 - -## YOLOv8とのSAM比較 - -ここでは、Metaの最小のSAMモデルであるSAM-bと、Ultralyticsの最小のセグメンテーションモデルである[YOLOv8n-seg](../tasks/segment.md)とを比較します。 - -| モデル | サイズ | パラメータ数 | スピード(CPU) | -|------------------------------------------------|-----------------------|----------------------|-----------------------| -| MetaのSAM-b | 358 MB | 94.7 M | 51096 ms/im | -| [MobileSAM](mobile-sam.md) | 40.7 MB | 10.1 M | 46122 ms/im | -| [FastSAM-s](fast-sam.md) with YOLOv8 backbone | 23.7 MB | 11.8 M | 115 ms/im | -| Ultralytics [YOLOv8n-seg](../tasks/segment.md) | **6.7 MB** (53.4倍小さい) | **3.4 M** (27.9倍少ない) | **59 ms/im** (866倍速い) | - -この比較では、モデルのサイズとスピードの桁違いの違いが示されています。SAMは自動セグメンテーションのユニークな機能を提供しますが、より小さい、より速く、より効率的なYOLOv8セグメントモデルとは競合しません。 - -テストは、2023年製のApple M2 Macbook、16GBのRAMで実行されました。このテストを再現するには: - -!!! Example "例" - - === "Python" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # SAM-bのプロファイリング - model = SAM('sam_b.pt') - model.info() - model('ultralytics/assets') - - # MobileSAMのプロファイリング - model = SAM('mobile_sam.pt') - model.info() - model('ultralytics/assets') - - # FastSAM-sのプロファイリング - model = FastSAM('FastSAM-s.pt') - model.info() - model('ultralytics/assets') - - # YOLOv8n-segのプロファイリング - model = YOLO('yolov8n-seg.pt') - model.info() - model('ultralytics/assets') - ``` - -## オートアノテーション: セグメンテーションデータセットの迅速な作成方法 - -オートアノテーションは、SAMの主要な機能の一つであり、事前トレーニング済みの検出モデルを使用して[セグメンテーションデータセット](https://docs.ultralytics.com/datasets/segment)を生成することができます。この機能により、時間のかかる手作業のラベリング作業を回避し、大量の画像の迅速かつ正確な注釈付けが可能になります。 - -### ディテクションモデルを使用したセグメンテーションデータセットの生成 - -Ultralyticsフレームワークを使用してデータセットをオートアノテーションするには、以下のように`auto_annotate`関数を使用します: - -!!! Example "例" - - === "Python" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="path/to/images", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| 引数 | タイプ | 説明 | デフォルト | -|------------|------------------|--------------------------------------------------------------|--------------| -| data | str | 注釈を付ける画像が含まれるフォルダへのパス。 | | -| det_model | str, オプション | 事前トレーニング済みのYOLO検出モデル。デフォルトは'yolov8x.pt'。 | 'yolov8x.pt' | -| sam_model | str, オプション | 事前トレーニング済みのSAMセグメンテーションモデル。デフォルトは'sam_b.pt'。 | 'sam_b.pt' | -| device | str, オプション | モデルを実行するデバイス。デフォルトは空の文字列(CPUまたはGPUが利用可能な場合)。 | | -| output_dir | str, None, オプション | 注釈付け結果を保存するディレクトリ。デフォルトは、'data'と同じディレクトリ内の 'labels' フォルダーです。 | None | - -`auto_annotate`関数は、画像へのパス、任意の事前トレーニング済みの検出およびSAMセグメンテーションモデル、モデルを実行するデバイス、および注釈付け結果を保存する出力ディレクトリを指定するためのオプション引数を取ります。 - -事前トレーニング済みモデルを使用したオートアノテーションにより、高品質なセグメンテーションデータセットを作成するための時間と労力を大幅に節約することができます。この機能は、大量の画像コレクションに取り組んでいる研究者や開発者にとって特に有益であり、モデルの開発と評価に集中することができます。 - -## 引用と謝辞 - -SAMが研究や開発の場で役立つ場合は、引用にご協力いただけると幸いです。 - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -この貴重なコンピュータビジョンコミュニティ向けのリソースを作成および維持してくれたMeta AIに感謝の意を表します。 - -*keywords: Segment Anything, Segment Anything Model, SAM, Meta SAM, 画像セグメンテーション, プロンプト可能なセグメンテーション, ゼロショットパフォーマンス, SA-1B データセット, 先進のアーキテクチャ, オートアノテーション, Ultralytics, 事前トレーニング済みモデル, SAM base, SAM large, インスタンスセグメンテーション, コンピュータビジョン, AI, 人工知能, 機械学習, データアノテーション, セグメンテーションマスク, ディテクションモデル, YOLOディテクションモデル, bibtex, Meta AI.* diff --git a/docs/ja/models/yolo-nas.md b/docs/ja/models/yolo-nas.md deleted file mode 100644 index 2d87ac92b68..00000000000 --- a/docs/ja/models/yolo-nas.md +++ /dev/null @@ -1,121 +0,0 @@ ---- -comments: true -description: YOLO-NASは、優れた物体検出モデルです。その機能、事前学習モデル、Ultralytics Python APIの使用法などについて詳しく説明します。 -keywords: YOLO-NAS, Deci AI, 物体検出, 深層学習, ニューラルアーキテクチャ検索, Ultralytics Python API, YOLOモデル, 事前学習モデル, 量子化, 最適化, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## 概要 - -Deci AIによって開発されたYOLO-NASは、画期的な物体検出ベースモデルです。従来のYOLOモデルの制約に対処するための高度なニューラルアーキテクチャ検索技術によって生み出されています。量子化のサポートと精度とレイテンシのトレードオフの改善により、YOLO-NASは物体検出において大きな進歩を遂げています。 - -![モデルの例の画像](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**YOLO-NASの概要。** YOLO-NASは、量子化対応のブロックと選択的量子化を使用して最適なパフォーマンスを実現します。モデルをINT8で量子化すると、他のモデルよりも精度がほとんど低下せずに最適なパフォーマンスが得られます。これらの進歩により、前例のない物体検出能力と優れたパフォーマンスを備えた優れたアーキテクチャが実現されます。 - -### 主な特徴 - -- **量子化フレンドリーな基本ブロック:** YOLO-NASは、従来のYOLOモデルの制約の1つである量子化に対応した新しい基本ブロックを導入しています。 -- **洗練されたトレーニングと量子化:** YOLO-NASは、高度なトレーニングスキームとポストトレーニング量子化を活用してパフォーマンスを向上させています。 -- **AutoNAC最適化と事前学習:** YOLO-NASはAutoNAC最適化を利用し、COCO、Objects365、Roboflow 100などの注目されるデータセットで事前学習されています。この事前学習により、製品環境での下流物体検出タスクに非常に適しています。 - -## 事前学習モデル - -Ultralyticsが提供する事前学習済みのYOLO-NASモデルを使用して、次世代の物体検出のパワーを体験してください。これらのモデルは、速度と精度の両方の面で優れたパフォーマンスを提供するように設計されています。特定のニーズに合わせてさまざまなオプションから選択できます。 - -| モデル | mAP | レイテンシ (ms) | -|------------------|-------|------------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -各モデルのバリエーションは、Mean Average Precision(mAP)とレイテンシのバランスを取り、パフォーマンスとスピードの両方に最適化されています。 - -## 使用例 - -Ultralyticsの`ultralytics` Pythonパッケージを使用して、YOLO-NASモデルをPythonアプリケーションに簡単に統合できるようにしました。このパッケージは、プロセスをスムーズにするユーザーフレンドリーなPython APIを提供します。 - -次の例では、推論と検証のために`ultralytics`パッケージを使用してYOLO-NASモデルをどのように使用するかを示しています。 - -### 推論と検証の例 - -この例では、COCO8データセットでYOLO-NAS-sを検証します。 - -!!! Example "例" - - この例では、YOLO-NASの推論と検証のためのシンプルなコードを提供しています。推論結果の処理については、[Predict](../modes/predict.md)モードを参照してください。他のモードでYOLO-NASを使用する方法については、[Val](../modes/val.md)および[Export](../modes/export.md)を参照してください。`ultralytics`パッケージのYOLO-NASはトレーニングをサポートしていません。 - - === "Python" - - Pythonで、PyTorchの事前学習済みの`*.pt`モデルファイルを`NAS()`クラスに渡すことで、モデルのインスタンスを作成できます: - - ```python - from ultralytics import NAS - - # COCO事前学習済みのYOLO-NAS-sモデルをロード - model = NAS('yolo_nas_s.pt') - - # モデル情報の表示(オプション) - model.info() - - # COCO8の例データセットでモデルを検証 - results = model.val(data='coco8.yaml') - - # 'bus.jpg'画像上でYOLO-NAS-sモデルを使用した推論 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - モデルを直接実行するためのCLIコマンドもあります: - - ```bash - # COCO事前学習済みのYOLO-NAS-sモデルをロードし、COCO8の例データセットでパフォーマンスを検証 - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # COCO事前学習済みのYOLO-NAS-sモデルをロードし、'bus.jpg'画像上で推論を実行 - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## サポートされているタスクとモード - -YOLO-NASモデルは、Small(s)、Medium(m)、Large(l)の3つのバリエーションを提供しています。各バリエーションは、異なる計算リソースとパフォーマンスのニーズに対応するように設計されています: - -- **YOLO-NAS-s:** 計算リソースが限られている環境で効率が重要な場合に最適化されています。 -- **YOLO-NAS-m:** 幅広い一般的な物体検出のニーズに適したバランスの取れたアプローチです。 -- **YOLO-NAS-l:** 計算リソースの制約が少ない最高の精度が求められるシナリオに対応しています。 - -以下は、各モデルの詳細な概要であり、それらの事前学習済み重みへのリンク、サポートされるタスク、さまざまな動作モードとの互換性が示されています。 - -| モデルの種類 | 事前学習済みの重み | サポートされるタスク | 推論 | 検証 | トレーニング | エクスポート | -|------------|-----------------------------------------------------------------------------------------------|----------------------------|----|----|--------|--------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [物体検出](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [物体検出](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [物体検出](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## 引用と謝辞 - -研究や開発の中でYOLO-NASを使用する場合は、SuperGradientsを引用してください: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -このコンピュータビジョンコミュニティ向けの貴重なリソースを作成および維持するために、Deci AIの[SuperGradients](https://github.com/Deci-AI/super-gradients/)チームに感謝の意を表します。革新的なアーキテクチャと優れた物体検出能力を持つYOLO-NASが、開発者や研究者の重要なツールになると信じています。 - -*keywords: YOLO-NAS, Deci AI, 物体検出, 深層学習, ニューラルアーキテクチャ検索, Ultralytics Python API, YOLOモデル, SuperGradients, 事前学習モデル, 量子化フレンドリーな基本ブロック, 高度なトレーニングスキーム, ポストトレーニング量子化, AutoNAC最適化, COCO, Objects365, Roboflow 100* diff --git a/docs/ja/models/yolov3.md b/docs/ja/models/yolov3.md deleted file mode 100644 index 19f62afb1a3..00000000000 --- a/docs/ja/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: YOLOv3、YOLOv3-Ultralytics、およびYOLOv3uの概要を把握してください。オブジェクト検出に対するこれらのモデルの主な特徴、使用方法、およびサポートされるタスクについて学びます。 -keywords: YOLOv3, YOLOv3-Ultralytics, YOLOv3u, オブジェクト検出, 推論, トレーニング, Ultralytics ---- - -# YOLOv3、YOLOv3-Ultralytics、およびYOLOv3u - -## 概要 - -このドキュメントでは、[YOLOv3](https://pjreddie.com/darknet/yolo/)、[YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3)、および[YOLOv3u](https://github.com/ultralytics/ultralytics)という3つの関連するオブジェクト検出モデルについて概説します。 - -1. **YOLOv3:** これはYou Only Look Once (YOLO) オブジェクト検出アルゴリズムの3番目のバージョンです。Joseph Redmonによって最初に開発されたYOLOv3は、マルチスケール予測や3つの異なるサイズの検出カーネルなど、さまざまな機能を導入し、前バージョンよりも性能を向上させました。 - -2. **YOLOv3-Ultralytics:** これはUltralyticsによるYOLOv3モデルの実装です。オリジナルのYOLOv3アーキテクチャを再現し、より多くの事前学習済みモデルのサポートや簡単なカスタマイズオプションなど、追加の機能を提供します。 - -3. **YOLOv3u:** これはYOLOv8モデルで使用されるアンカーフリーでオブジェクトネスフリーなスプリットヘッドを組み込んだYOLOv3-Ultralyticsの更新版です。YOLOv3uは、YOLOv3と同じバックボーンとネックアーキテクチャを保持しながら、YOLOv8の更新された検出ヘッドを備えています。 - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## 主な特徴 - -- **YOLOv3:** 3つの異なる検出スケールを使用し、13x13、26x26、および52x52の3つの異なるサイズの検出カーネルを活用しました。これにより、さまざまなサイズのオブジェクトの検出精度が大幅に向上しました。さらに、YOLOv3では各バウンディングボックスの複数のラベル予測や、より良い特徴抽出ネットワークなどの機能が追加されました。 - -- **YOLOv3-Ultralytics:** UltralyticsのYOLOv3の実装は、オリジナルのモデルと同じ性能を提供しながら、より多くの事前学習済みモデルのサポート、追加のトレーニング方法、および簡単なカスタマイズオプションを提供します。これにより、実用的なアプリケーションにおいてより柔軟で使いやすくなります。 - -- **YOLOv3u:** この更新されたモデルは、YOLOv8から使用されているアンカーフリーでオブジェクトネスフリーなスプリットヘッドを組み込んでいます。事前定義されたアンカーボックスとオブジェクトネススコアの必要性を排除することで、この検出ヘッドの設計は、さまざまなサイズや形状のオブジェクトの検出能力を向上させることができます。これにより、YOLOv3uはオブジェクト検出タスクにおいてより堅牢で正確なモデルとなります。 - -## サポートされるタスクとモード - -YOLOv3シリーズ、YOLOv3、YOLOv3-Ultralytics、およびYOLOv3uは、オブジェクト検出タスクに特化して設計されています。これらのモデルは、精度と速度のバランスを取りながらさまざまな実世界のシナリオでの効果が高いことで知られています。各バリアントはユニークな機能と最適化を提供し、さまざまなアプリケーションに適しています。 - -3つのモデルは[推論](../modes/predict.md)、[検証](../modes/val.md)、[トレーニング](../modes/train.md)、および[エクスポート](../modes/export.md)など、幅広いモードをサポートしており、効果的なオブジェクト検出のための完全なツールキットを提供します。 - -| モデルの種類 | サポートされるタスク | 推論 | 検証 | トレーニング | エクスポート | -|--------------------|--------------------------------|----|----|--------|--------| -| YOLOv3 | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -この表は、各YOLOv3バリアントの機能を一目で把握するためのもので、オブジェクト検出ワークフローのさまざまなタスクと操作モードに対する多様性と適用性を強調しています。 - -## 使用例 - -この例では、YOLOv3の簡単なトレーニングおよび推論の例を提供します。これらおよびその他の[モード](../modes/index.md)の完全なドキュメンテーションについては、[Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md)、および[Export](../modes/export.md)のドキュメントページを参照してください。 - -!!! Example "例" - - === "Python" - - PyTorchの事前学習済み `*.pt` モデルと設定 `*.yaml` ファイルは、`YOLO()` クラスに渡してモデルインスタンスを作成できます。 - - ```python - from ultralytics import YOLO - - # COCOで学習済みのYOLOv3nモデルをロード - model = YOLO('yolov3n.pt') - - # モデル情報の表示(任意) - model.info() - - # COCO8のサンプルデータセットでモデルを100エポックトレーニング - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # YOLOv3nモデルで'bus.jpg'画像に対して推論実行 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLIコマンドを使用して直接モデルを実行できます。 - - ```bash - # COCOで学習済みのYOLOv3nモデルをロードし、COCO8のサンプルデータセットで100エポックトレーニング - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCOで学習済みのYOLOv3nモデルをロードし、'bus.jpg'画像に対して推論実行 - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## 引用と謝辞 - -研究でYOLOv3を使用する場合は、元のYOLO論文とUltralyticsのYOLOv3リポジトリを引用してください。 - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -Joseph RedmonとAli Farhadiには、オリジナルのYOLOv3を開発していただいたことに感謝します。 diff --git a/docs/ja/models/yolov4.md b/docs/ja/models/yolov4.md deleted file mode 100644 index 92627cfd442..00000000000 --- a/docs/ja/models/yolov4.md +++ /dev/null @@ -1,71 +0,0 @@ ---- -comments: true -description: YOLOv4は、2020年にAlexey Bochkovskiyによってリリースされた最先端のリアルタイムオブジェクト検出器に関する詳細なガイドをご覧ください。そのアーキテクチャのハイライト、革新的な機能、および応用例を理解してください。 -keywords: ultralytics、YOLOv4、オブジェクト検出、ニューラルネットワーク、リアルタイム検出、オブジェクト検出器、機械学習 ---- - -# YOLOv4: 高速で正確なオブジェクト検出 - -YOLOv4のUltralyticsドキュメンテーションページへようこそ。YOLOv4は、2020年にAlexey Bochkovskiyによってリリースされた最先端のリアルタイムオブジェクト検出器です。速度と精度の最適なバランスを提供するよう設計されており、さまざまなアプリケーションに優れた選択肢です。 - -![YOLOv4アーキテクチャ図](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**YOLOv4アーキテクチャ図**。YOLOv4の複雑なネットワーク設計を示しており、最適なリアルタイムオブジェクト検出のためのバックボーン、ネック、およびヘッドコンポーネント、およびそれらの相互接続されたレイヤーが表示されています。 - -## 導入 - -YOLOv4は、You Only Look Once version 4の略で、[YOLOv3](yolov3.md)や他のオブジェクト検出モデルなど、以前のYOLOバージョンの制約に対処するために開発されたリアルタイムオブジェクト検出モデルです。他の畳み込みニューラルネットワーク(CNN)ベースのオブジェクト検出器とは異なり、YOLOv4は推薦システムだけでなく、スタンドアロンのプロセス管理や人間の入力削減にも適用可能です。従来のグラフィックスプロセッシングユニット(GPU)上での動作は、手ごろな価格で大量の使用が可能であり、トレーニングには1つのGPUのみが必要です。 - -## アーキテクチャ - -YOLOv4は、パフォーマンスの最適化に一緒に機能するいくつかの革新的な機能を利用しています。これには、Weighted-Residual-Connections(WRC)、Cross-Stage-Partial-connections(CSP)、Cross mini-Batch Normalization(CmBN)、Self-adversarial-training(SAT)、Mish-activation、Mosaic data augmentation、DropBlock regularization、およびCIoU lossが含まれます。これらの機能は組み合わせて、最先端の結果を達成するために使用されます。 - -典型的なオブジェクト検出器は、入力、バックボーン、ネック、そしてヘッドの複数の部分で構成されています。YOLOv4のバックボーンはImageNetで事前にトレーニングされ、オブジェクトのクラスと境界ボックスを予測するために使用されます。バックボーンはVGG、ResNet、ResNeXt、またはDenseNetなどの複数のモデルから選択できます。ディテクターのネック部分は、異なるステージからの特徴マップを収集するために使用され、通常、複数のボトムアップパスと複数のトップダウンパスが含まれます。ヘッド部分は、最終的なオブジェクトの検出と分類に使用されます。 - -## フリービーのバッグ - -YOLOv4は、「フリービーのバッグ」として知られる手法も使用しており、これは推論のコストを増やさずにモデルの精度を向上させる技術です。データ拡張は、オブジェクト検出で使用される一般的なフリービーのバッグの技術の一つであり、入力画像の変動性を増加させることでモデルの堅牢性を向上させます。データ拡張の例には、光度の歪み(画像の明るさ、コントラスト、色調、彩度、ノイズの調整)や幾何学的歪み(ランダムなスケーリング、クロッピング、反転、回転の追加)があります。これらの技術は、モデルが異なる種類の画像に対してより良い一般化をするのに役立ちます。 - -## 機能と性能 - -YOLOv4は、オブジェクト検出の最適な速度と精度を目指して設計されています。YOLOv4のアーキテクチャには、バックボーンとしてCSPDarknet53、ネックとしてPANet、検出ヘッドとしてYOLOv3が含まれています。この設計により、YOLOv4は印象的な速度でオブジェクト検出を実行できるため、リアルタイムアプリケーションに適しています。YOLOv4は精度でも優れており、オブジェクト検出のベンチマークで最先端の結果を達成しています。 - -## 使用例 - -現時点では、Ultralyticsは現在、YOLOv4モデルをサポートしていません。そのため、YOLOv4を使用したいユーザーは、インストールおよび使用方法に関する情報は直接YOLOv4のGitHubリポジトリを参照する必要があります。 - -ここでは、YOLOv4を使用するための一般的な手順の概要を示します。 - -1. YOLOv4のGitHubリポジトリにアクセスします: [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). - -2. インストールのためにREADMEファイルに記載されている指示に従います。一般的には、リポジトリのクローン、必要な依存関係のインストール、および必要な環境変数のセットアップが含まれます。 - -3. インストールが完了したら、データセットの準備、モデルパラメータの設定、モデルのトレーニング、トレーニングされたモデルを使用してオブジェクト検出を実行するなど、リポジトリで提供されている使用方法に従ってモデルをトレーニングおよび使用できます。 - -特定の手順は、特定のユースケースとYOLOv4リポジトリの現在の状態によって変わる場合があります。したがって、YOLOv4 GitHubリポジトリで提供されている指示に直接参照することを強くお勧めします。 - -YOLOv4のサポートが実装され次第、Ultralyticsの使用例のためにこのドキュメントを更新することをお詫び申し上げます。 - -## 結論 - -YOLOv4は、速度と精度のバランスを取った強力で効率的なオブジェクト検出モデルです。トレーニング中にユニークな機能とバッグのフリービーの技術を使用することで、リアルタイムのオブジェクト検出タスクで優れたパフォーマンスを発揮します。通常のGPUを持つ誰でもがトレーニングと使用を行うことができるため、幅広いアプリケーションにアクセス可能かつ実用的です。 - -## 引用と謝辞 - -リアルタイムオブジェクト検出の分野での重要な貢献に対して、YOLOv4の著者に謝意を表します: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -オリジナルのYOLOv4の論文は[arXiv](https://arxiv.org/abs/2004.10934)で見つけることができます。著者は彼らの仕事を一般に公開しており、コードベースは[GitHub](https://github.com/AlexeyAB/darknet)でアクセスできます。私たちは、彼らの努力に感謝し、彼らの仕事を広いコミュニティにアクセス可能にしてくれたことに感謝しています。 diff --git a/docs/ja/models/yolov5.md b/docs/ja/models/yolov5.md deleted file mode 100644 index b91a3161497..00000000000 --- a/docs/ja/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: YOLOv5uは、改良された精度と速度のトレードオフと、さまざまな物体検出タスク向けの多数の事前トレーニングモデルを備えたYOLOv5モデルの進化バージョンです。 -keywords: YOLOv5u, 物体検出, 事前トレーニングモデル, Ultralytics, Inference, Validation, YOLOv5, YOLOv8, アンカーフリー, オブジェクトフリー, リアルタイムアプリケーション, 機械学習 ---- - -# YOLOv5 - -## 概要 - -YOLOv5uは、物体検出方法論の進歩を表しています。Ultralyticsが開発した[YOLOv5](https://github.com/ultralytics/yolov5)モデルの基本アーキテクチャを起源とするYOLOv5uは、アンカーフリーでオブジェクトフリーの分割ヘッドを採用しており、以前の[YOLOv8](yolov8.md)モデルで導入された特徴です。この適応により、モデルのアーキテクチャが洗練され、物体検出タスクにおける改善された精度と速度のトレードオフが実現されます。経験的な結果と派生した特徴から明らかなとおり、YOLOv5uは、研究と実用の両方で堅牢なソリューションを求める人々にとって効率的な選択肢です。 - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## 主な特徴 - -- **アンカーフリーな分割Ultralyticsヘッド:** 伝統的な物体検出モデルは、事前に定義されたアンカーボックスを使用してオブジェクトの位置を予測します。しかし、YOLOv5uはこのアプローチを近代化しています。アンカーフリーな分割Ultralyticsヘッドを採用することで、より柔軟かつ適応性のある検出メカニズムが確保され、さまざまなシナリオでのパフォーマンスが向上します。 - -- **最適化された精度と速度のトレードオフ:** 速度と精度はしばしば反対の方向に引っ張られます。しかし、YOLOv5uはこのトレードオフに挑戦しています。リアルタイムの検出を確保しながら、精度を損なうことなく、キャリブレーションされたバランスを提供します。この機能は、自動車、ロボット工学、リアルタイムビデオ解析など、迅速な応答を必要とするアプリケーションに特に有用です。 - -- **さまざまな事前トレーニングモデル:** 異なるタスクには異なるツールセットが必要であることを理解して、YOLOv5uはさまざまな事前トレーニングモデルを提供しています。Inference、Validation、Trainingに焦点を当てていても、ユーザーには待ち受けている特別に調整されたモデルがあります。この多様性により、ワンサイズがすべての解決策ではなく、一意の課題に特化したモデルを使用することができます。 - -## サポートされるタスクとモード - -各種の事前トレーニング済みのYOLOv5uモデルは、[物体検出](../tasks/detect.md)タスクで優れたパフォーマンスを発揮します。[Inference](../modes/predict.md)、[Validation](../modes/val.md)、[Training](../modes/train.md)、および[Export](../modes/export.md)などのさまざまなモードをサポートしているため、開発から展開まで幅広いアプリケーションに適しています。 - -| モデルの種類 | 事前トレーニング済みの重み | タスク | 推論 | 汎化 | トレーニング | エクスポート | -|---------|-----------------------------------------------------------------------------------------------------------------------------|----------------------------|----|----|--------|--------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [物体検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -この表では、YOLOv5uモデルのバリアントについて詳細な概要を提供し、物体検出タスクでの適用可能性と、[Inference](../modes/predict.md)、[Validation](../modes/val.md)、[Training](../modes/train.md)、[Export](../modes/export.md)などのさまざまな操作モードのサポートを強調しています。この包括的なサポートにより、ユーザーは広範な物体検出シナリオでYOLOv5uモデルの機能を十分に活用することができます。 - -## パフォーマンスメトリクス - -!!! パフォーマンス - - === "検出" - - [COCO](https://docs.ultralytics.com/datasets/detect/coco/)でトレーニングされたこれらのモデルを使用した使用例については、[検出ドキュメント](https://docs.ultralytics.com/tasks/detect/)を参照してください。これらのモデルには80の事前トレーニングクラスが含まれています。 - - | モデル | YAML | サイズ
(pixels) | mAPval
50-95 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | パラメータ
(M) | FLOPS
(B) | - |-------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|-----------------------|----------------------|----------------------------|-------------------------------------|----------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43.0 | 120.7 | 1.27 | 9.1 | 24.0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49.0 | 233.9 | 1.86 | 25.1 | 64.2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52.2 | 408.4 | 2.50 | 53.2 | 135.0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53.2 | 763.2 | 3.81 | 97.2 | 246.4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42.1 | 211.0 | 1.83 | 4.3 | 7.8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48.6 | 422.6 | 2.34 | 15.3 | 24.6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53.6 | 810.9 | 4.36 | 41.2 | 65.7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55.7 | 1470.9 | 5.47 | 86.1 | 137.4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56.8 | 2436.5 | 8.98 | 155.4 | 250.7 | - -## 使用例 - -この例では、単純なYOLOv5のトレーニングと推論の使用例を提供します。これらと他の[モード](../modes/index.md)の完全なドキュメントについては、[Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md)、[Export](../modes/export.md)のドキュメントページを参照してください。 - -!!! Example "例" - - === "Python" - - Pythonでモデルインスタンスを作成するには、PyTorchの事前トレーニング済みの`*.pt`モデルおよび構成`*.yaml`ファイルを`YOLO()`クラスに渡すことができます。 - - ```python - from ultralytics import YOLO - - # COCOで事前トレーニング済みのYOLOv5nモデルをロードする - model = YOLO('yolov5n.pt') - - # モデル情報を表示する(任意) - model.info() - - # COCO8の例のデータセットでモデルを100エポックトレーニングする - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # YOLOv5nモデルを使用して'bus.jpg'画像で推論を実行する - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLIコマンドを使用してモデルを直接実行することもできます。 - - ```bash - # COCOで事前トレーニング済みのYOLOv5nモデルをロードし、COCO8の例のデータセットで100エポックトレーニングする - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCOで事前トレーニング済みのYOLOv5nモデルをロードし、'bus.jpg'画像で推論を実行する - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## 引用および謝辞 - -研究でYOLOv5またはYOLOv5uを使用する場合は、以下のようにUltralytics YOLOv5リポジトリを引用してください: - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -なお、YOLOv5モデルは[AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE)および[Enterprise](https://ultralytics.com/license)ライセンスの下で提供されています。 diff --git a/docs/ja/models/yolov6.md b/docs/ja/models/yolov6.md deleted file mode 100644 index 139b0a78b81..00000000000 --- a/docs/ja/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: 最先端の速度と精度のバランスを実現する、Meituan YOLOv6というオブジェクト検出モデルを紹介します。機能、事前学習済みモデル、Pythonの使用方法について深く掘り下げます。 -keywords: Meituan YOLOv6、オブジェクト検出、Ultralytics、YOLOv6ドキュメント、Bi-directional Concatenation、Anchor-Aided Training、事前学習済みモデル、リアルタイムアプリケーション ---- - -# Meituan YOLOv6 - -## 概要 - -[Meituan](https://about.meituan.com/) YOLOv6は、速度と精度のバランスに優れた最先端のオブジェクト検出器であり、リアルタイムアプリケーションにおいては人気のある選択肢となっています。このモデルは、Bi-directional Concatenation(BiC)モジュール、アンカー支援トレーニング(AAT)戦略の実装、およびCOCOデータセットにおける最先端の精度を実現するための改良されたバックボーンとネックの設計など、アーキテクチャとトレーニング方法にいくつかの注目すべき技術的改善をもたらしました。 - -![Meituan YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![モデルの例](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**YOLOv6の概要。** モデルのアーキテクチャ図は、重要な改善点として再設計されたネットワークコンポーネントとトレーニング戦略を示しており、著しいパフォーマンス向上につながっています。 (a) YOLOv6のネック(NおよびSが表示されています)。M/Lの場合、RepBlocksはCSPStackRepで置き換えられます。 (b) BiCモジュールの構造。 (c) SimCSPSPPFブロック。 ([出典](https://arxiv.org/pdf/2301.05586.pdf))。 - -### 主な特徴 - -- **Bi-directional Concatenation(BiC)モジュール:** YOLOv6は、検出器のネックにBiCモジュールを導入し、ローカリゼーション信号を強化して性能を向上させ、速度の低下をほとんど無視できる優れた結果を実現します。 -- **アンカー支援トレーニング(AAT)戦略:** このモデルでは、AATを提案して、アンカーベースとアンカーフリーのパラダイムの両方の利点を享受することができます。これにより、推論効率を損なうことなく性能を向上させることができます。 -- **改良されたバックボーンとネックの設計:** YOLOv6をバックボーンとネックに別のステージを追加することで、このモデルはCOCOデータセットでの最先端の性能を高解像度入力で実現しています。 -- **自己蒸留戦略:** YOLOv6の小型モデルの性能を向上させるために、新しい自己蒸留戦略が実装されており、トレーニング中に補助回帰ブランチを強化し、推論時にはそれを除去して顕著な速度低下を回避します。 - -## パフォーマンスメトリクス - -YOLOv6にはさまざまなスケールの事前学習済みモデルが提供されています。 - -- YOLOv6-N: NVIDIA Tesla T4 GPUで、COCO val2017において37.5%のAPを1187 FPSで達成。 -- YOLOv6-S: 484 FPSで45.0%のAP。 -- YOLOv6-M: 226 FPSで50.0%のAP。 -- YOLOv6-L: 116 FPSで52.8%のAP。 -- YOLOv6-L6: リアルタイムでの最先端の精度。 - -YOLOv6には、異なる精度に最適化されたクォンタイズ済みのモデルや、モバイルプラットフォーム向けに最適化されたモデルも提供されています。 - -## 使用例 - -この例では、YOLOv6のトレーニングおよび推論の簡単な使用例を示します。これらおよび他の[モード](../modes/index.md)の完全なドキュメントについては、[Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md)、[Export](../modes/export.md)のドキュメントページを参照してください。 - -!!! Example "例" - - === "Python" - - PyTorchで事前学習済みの`*.pt`モデルと`*.yaml`設定ファイルを`YOLO()`クラスに渡すことで、Pythonでモデルインスタンスを作成することができます。 - - ```python - from ultralytics import YOLO - - # YOLOv6nモデルをゼロから構築する - model = YOLO('yolov6n.yaml') - - # モデルの情報を表示する(オプション) - model.info() - - # COCO8の例題データセットでモデルを100エポックトレーニングする - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # YOLOv6nモデルで'bus.jpg'画像に対して推論を実行する - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - モデルを直接実行するためのCLIコマンドも利用できます。 - - ```bash - # ゼロからYOLOv6nモデルを構築し、COCO8の例題データセットで100エポックトレーニングする - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # ゼロからYOLOv6nモデルを構築し、'bus.jpg'画像に対して推論を実行する - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## サポートされるタスクとモード - -YOLOv6シリーズは、高性能の[オブジェクト検出](../tasks/detect.md)に最適化されたモデルを提供しています。これらのモデルは、さまざまな計算ニーズと精度要件に対応しており、幅広いアプリケーションに適応することができます。 - -| モデルタイプ | 事前学習済みの重み | サポートされるタスク | 推論 | 検証 | トレーニング | エクスポート | -|-----------|----------------|--------------------------------|----|----|--------|--------| -| YOLOv6-N | `yolov6-n.pt` | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [オブジェクト検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -この表は、YOLOv6モデルのバリアントについての詳細な概要を提供し、オブジェクト検出のタスクにおける機能と、[推論](../modes/predict.md)、[検証](../modes/val.md)、[トレーニング](../modes/train.md)、[エクスポート](../modes/export.md)などのさまざまな操作モードとの互換性を強調しています。この包括的なサポートにより、ユーザーはさまざまなオブジェクト検出シナリオでYOLOv6モデルの機能を十分に活用することができます。 - -## 引用と謝辞 - -リアルタイムオブジェクト検出の分野における重要な貢献をした著者に謝意を表します。 - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -YOLOv6のオリジナル論文は[arXiv](https://arxiv.org/abs/2301.05586)で入手できます。著者は自身の研究を広く共有しており、コードベースは[GitHub](https://github.com/meituan/YOLOv6)でアクセスできます。私たちは彼らがこの分野の進歩に貢献し、その研究を広く公開していることに感謝しています。 diff --git a/docs/ja/models/yolov7.md b/docs/ja/models/yolov7.md deleted file mode 100644 index 3981150c09c..00000000000 --- a/docs/ja/models/yolov7.md +++ /dev/null @@ -1,65 +0,0 @@ ---- -comments: true -description: YOLOv7は高速性と精度の両方で既知の物体検出器を凌駕する最先端のリアルタイム物体検出器です。この技術では、モデル再パラメータ化、動的ラベル割り当て、拡張スケーリング、複合スケーリングなど、学習可能なBag-of-Freebies最適化に焦点を当てています。 -keywords: YOLOv7, リアルタイム物体検出器, 最先端, Ultralytics, MS COCO データセット, モデル再パラメータ化, 動的ラベル割り当て, 拡張スケーリング, 複合スケーリング ---- - -# YOLOv7: 学習可能なBag-of-Freebies - -YOLOv7は、5 FPSから160 FPSの範囲で、既知のすべての物体検出器を速度と精度の両方で凌駕する最先端のリアルタイム物体検出器です。GPU V100上で30 FPS以上の性能を持つリアルタイム物体検出器の中で、最高の精度(56.8% AP)を持っています。さらに、YOLOv7はYOLOR、YOLOX、Scaled-YOLOv4、YOLOv5などの他の物体検出器を速度と精度の面で上回っています。このモデルは、他のデータセットや事前学習重みを使用せずに、MS COCOデータセットでトレーニングされています。YOLOv7のソースコードはGitHubで入手できます。 - -![SOTA物体検出器との比較](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**最先端物体検出器との比較。** 表2の結果からわかるように、提案手法は速度と精度のトレードオフにおいて最も優れています。例えば、YOLOv7-tiny-SiLUとYOLOv5-N(r6.1)を比較すると、我々の手法は127 fps速く、APにおいて10.7%精度が向上しています。また、YOLOv7はフレームレート161 fpsで51.4%のAPを達成していますが、同じAPを持つPPYOLOE-Lのフレームレートは78 fpsのみです。パラメータ使用量に関しては、YOLOv7はPPYOLOE-Lよりも41%少ないです。さらに、114 fpsの推論速度を持つYOLOv7-Xを99 fpsの推論速度を持つYOLOv5-L(r6.1)と比較すると、YOLOv7-XはAPを3.9%向上させることができます。YOLOv7-Xをスケールの近いYOLOv5-X(r6.1)と比較すると、YOLOv7-Xの推論速度は31 fps速いです。また、パラメータ量と計算量の観点から、YOLOv7-XはYOLOv5-X(r6.1)に比べてパラメータを22%、計算量を8%削減していますが、APは2.2%向上しています([出典](https://arxiv.org/pdf/2207.02696.pdf))。 - -## 概要 - -リアルタイム物体検出は、マルチオブジェクトトラッキング、自動運転、ロボティクス、医療画像解析など、多くのコンピュータビジョンシステムの重要なコンポーネントです。近年、リアルタイム物体検出の開発は、さまざまなCPU、GPU、ニューラルプロセッシングユニット(NPU)の推論速度の効率的なアーキテクチャの設計と向上に焦点を当てています。YOLOv7は、エッジからクラウドまで、モバイルGPUとGPUデバイスの両方をサポートしています。 - -従来のリアルタイム物体検出器がアーキテクチャの最適化に焦点を当てるのに対し、YOLOv7では学習プロセスの最適化に注力しています。これには、推論コストを増やさずに物体検出の精度を向上させるためのモジュールや最適化手法が含まれます。これは、「学習可能なBag-of-Freebies」というコンセプトです。 - -## 主な特徴 - -YOLOv7は、いくつかの主な特徴を導入しています。 - -1. **モデル再パラメータ化**: YOLOv7は、グラデーション伝播経路の概念を持つ、さまざまなネットワークのレイヤーに適用可能な計画された再パラメータ化モデルを提案しています。 - -2. **動的ラベル割り当て**: 複数の出力層を持つモデルのトレーニングでは、異なるブランチの出力に動的なターゲットを割り当てる方法が新たな課題となります。この問題を解決するために、YOLOv7はコーストゥーファインリードガイド付きラベル割り当てと呼ばれる新しいラベル割り当て手法を導入しています。 - -3. **拡張スケーリングと複合スケーリング**: YOLOv7は、「拡張」および「複合スケーリング」の方法を提案し、効果的にパラメータと計算を利用できるリアルタイム物体検出器になります。 - -4. **効率性**: YOLOv7による方法は、最先端のリアルタイム物体検出器のパラメータ量を約40%、計算量を約50%効率的に削減し、より高速な推論速度と高い検出精度を実現します。 - -## 使用例 - -執筆時点では、Ultralyticsは現在、YOLOv7モデルをサポートしていません。そのため、YOLOv7を使用したい場合は、YOLOv7のGitHubリポジトリを直接参照する必要があります。 - -以下は、YOLOv7を使用するための典型的な手順の概要です。 - -1. YOLOv7のGitHubリポジトリにアクセスします: [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7)。 - -2. READMEファイルに記載されている手順に従ってインストールします。通常、リポジトリをクローンし、必要な依存関係をインストールし、必要な環境変数を設定する必要があります。 - -3. インストールが完了したら、データセットの準備、モデルパラメータの設定、モデルのトレーニング、トレーニングされたモデルを使用して物体検出を実行するなど、リポジトリで提供されている使用方法に従って、モデルをトレーニングおよび使用することができます。 - -具体的な手順は、具体的なユースケースとYOLOv7リポジトリの現在の状態によって異なる場合があります。そのため、YOLOv7のGitHubリポジトリで提供されている手順を直接参照することを強くお勧めします。 - -YOLOv7のサポートが実装されるまで、このドキュメントを更新して、Ultralyticsの使用例を追加するための努力を続けます。 - -## 引用と謝辞 - -リアルタイム物体検出の分野での重要な貢献に対して、YOLOv7の著者に感謝いたします。 - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -YOLOv7のオリジナル論文は[arXiv](https://arxiv.org/pdf/2207.02696.pdf)で見つけることができます。著者は自分たちの研究を広く公開しており、コードベースは[GitHub](https://github.com/WongKinYiu/yolov7)でアクセスできます。彼らの研究がこの分野を進め、他の研究者にもアクセス可能にする努力に感謝します。 diff --git a/docs/ja/models/yolov8.md b/docs/ja/models/yolov8.md deleted file mode 100644 index 76d25038257..00000000000 --- a/docs/ja/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: YOLOv8の魅力的な機能を探索しましょう。これは当社のリアルタイムオブジェクト検出器の最新バージョンです!高度なアーキテクチャ、事前学習済みモデル、そして精度と速度の最適なバランスがYOLOv8を完璧なオブジェクト検出タスクの選択肢とします。 -keywords: YOLOv8, Ultralytics, リアルタイムオブジェクト検出器, 事前学習済みモデル, ドキュメント, オブジェクト検出, YOLOシリーズ, 高度なアーキテクチャ, 精度, 速度 ---- - -# YOLOv8 - -## 概要 - -YOLOv8は、リアルタイムオブジェクト検出器のYOLOシリーズの最新版であり、精度と速度において最先端の性能を提供します。以前のYOLOバージョンの進化を基にして、YOLOv8は新機能と最適化を導入し、様々なオブジェクト検出タスクにおいて広範なアプリケーションに適した選択肢となります。 - -![Ultralytics YOLOv8](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## 主な特徴 - -- **高度なバックボーンおよびネックアーキテクチャ:** YOLOv8は最先端のバックボーンとネックアーキテクチャを採用しており、特徴抽出とオブジェクト検出のパフォーマンスが向上しています。 -- **アンカーフリーな分割Ultralyticsヘッド:** YOLOv8はアンカーベースの方法と比べて、アンカーフリーな分割Ultralyticsヘッドを採用し、より高い精度と効率的な検出プロセスに貢献しています。 -- **最適な精度と速度のトレードオフの最適化:** 精度と速度の最適なバランスを保ちながら、YOLOv8は多岐にわたるリアルタイムオブジェクト検出タスクに適しています。 -- **さまざまな事前学習済みモデル:** YOLOv8はさまざまなタスクやパフォーマンス要件に対応する事前学習済みモデルを提供しており、特定のユースケースに適したモデルを簡単に見つけることができます。 - -## サポートされるタスクとモード - -YOLOv8シリーズは、コンピュータビジョンのさまざまなタスクに特化したさまざまなモデルを提供しています。これらのモデルは、オブジェクト検出からインスタンスセグメンテーション、ポーズ/キーポイントの検出、分類などのより複雑なタスクまで、さまざまな要件に対応するように設計されています。 - -YOLOv8シリーズの各バリアントは、それぞれのタスクに最適化されており、高いパフォーマンスと精度を提供します。また、これらのモデルは、推論、検証、トレーニング、エクスポートといったさまざまな運用モードと互換性があり、展開と開発のさまざまな段階で使用することができます。 - -| モデル | ファイル名 | タスク | 推論 | 検証 | トレーニング | エクスポート | -|-------------|----------------------------------------------------------------------------------------------------------------|----------------------------------------|----|----|--------|--------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [検出](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [インスタンスセグメンテーション](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [ポーズ/キーポイント](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [分類](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -この表は、YOLOv8モデルのバリアントの概要を提供し、特定のタスクでの適用性と推論、検証、トレーニング、エクスポートなどのさまざまな運用モードとの互換性を示しています。これにより、YOLOv8シリーズの多様性と堅牢性が示されており、コンピュータビジョンのさまざまなアプリケーションに適しています。 - -## 性能メトリクス - -!!! パフォーマンス - - === "検出(COCO)" - - [COCO](https://docs.ultralytics.com/datasets/detect/coco/)でトレーニングされたこれらのモデルを使用した使用例については、[検出ドキュメント](https://docs.ultralytics.com/tasks/detect/)を参照してください。これらのモデルには80の事前学習済みクラスが含まれています。 - - | モデル | サイズ(ピクセル) | mAPval
50-95 | スピード(CPU ONNX
(ミリ秒)) | スピード(A100 TensorRT
(ミリ秒)) | パラメータ数(百万) | FLOPs(10億) | - | ------------------------------------------------------------------------------------ | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - - === "検出(Open Images V7)" - - [Open Image V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/)でトレーニングされたこれらのモデルを使用した使用例については、[検出ドキュメント](https://docs.ultralytics.com/tasks/detect/)を参照してください。これらのモデルには600の事前訓練クラスが含まれています。 - - | モデル | サイズ(ピクセル) | mAPval
50-95 | スピード(CPU ONNX
(ミリ秒)) | スピード(A100 TensorRT
(ミリ秒)) | パラメータ数(百万) | FLOPs(10億) | - | ----------------------------------------------------------------------------------------- | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 | - - === "セグメンテーション(COCO)" - - [COCO](https://docs.ultralytics.com/datasets/segment/coco/)でトレーニングされたこれらのモデルを使用した使用例については、[セグメンテーションドキュメント](https://docs.ultralytics.com/tasks/segment/)を参照してください。これらのモデルには80の事前学習済みクラスが含まれています。 - - | モデル | サイズ(ピクセル) | mAPbox
50-95 | mAPmask
50-95 | スピード(CPU ONNX
(ミリ秒)) | スピード(A100 TensorRT
(ミリ秒)) | パラメータ数(百万) | FLOPs(10億) | - | -------------------------------------------------------------------------------------------- | --------------------- | -------------------- | --------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - - === "分類(ImageNet)" - - [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/)でトレーニングされたこれらのモデルを使用した使用例については、[分類ドキュメント](https://docs.ultralytics.com/tasks/classify/)を参照してください。これらのモデルには1000の事前学習済みクラスが含まれています。 - - | モデル | サイズ(ピクセル) | top1精度 | top5精度 | スピード(CPU ONNX
(ミリ秒)) | スピード(A100 TensorRT
(ミリ秒)) | パラメータ数(百万) | FLOPs(640ピクセル時の10億) | - | -------------------------------------------------------------------------------------------- | --------------------- | --------- | --------- | ------------------------------ | ----------------------------------- | ------------------ | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - - === "ポーズ(COCO)" - - ['person']クラスの1つの事前学習済みクラスを含む、[COCO](https://docs.ultralytics.com/datasets/pose/coco/)でトレーニングされたこれらのモデルを使用した使用例については、[ポーズ推定ドキュメント](https://docs.ultralytics.com/tasks/pose/)を参照してください。 - - | モデル | サイズ(ピクセル) | mAPpose
50-95 | mAPpose
50 | スピード(CPU ONNX
(ミリ秒)) | スピード(A100 TensorRT
(ミリ秒)) | パラメータ数(百万) | FLOPs(10億) | - | ---------------------------------------------------------------------------------------------------- | --------------------- | --------------------- | ------------------ | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -## 使用例 - -この例では、YOLOv8のシンプルなトレーニングと推論の使用例を提供しています。これらとその他のモードに関する完全なドキュメントについては、[Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md)、および[Export](../modes/export.md)のドキュメントページを参照してください。 - -以下の例は、オブジェクト検出のためのYOLOv8 [Detect](../tasks/detect.md)モデル用のものです。他のサポートされるタスクについては、[Segment](../tasks/segment.md)、[Classify](../tasks/classify.md)、および[Pose](../tasks/pose.md)のドキュメントを参照してください。 - -!!! Example "例" - - === "Python" - - Pythonでの、`.pt`形式の事前学習済みPyTorchモデルおよび設定ファイル`*.yaml`を使用して、`YOLO()`クラスを介してモデルインスタンスを作成する方法の例です: - - ```python - from ultralytics import YOLO - - # COCOで事前学習済みのYOLOv8nモデルをロード - model = YOLO('yolov8n.pt') - - # モデルの情報を表示(オプション) - model.info() - - # COCO8の例データセットで100エポックトレーニングを実行 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg'画像に対してYOLOv8nモデルで推論を実行 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - 直接モデルを実行するためのCLIコマンドも使用できます: - - ```bash - # COCOで事前学習済みのYOLOv8nモデルをロードし、COCO8の例データセットで100エポックトレーニングを実行 - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCOで事前学習済みのYOLOv8nモデルをロードし、'bus.jpg'画像に対して推論を実行 - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## 引用および謝辞 - -このリポジトリからYOLOv8モデルまたは他のソフトウェアを使用する場合は、次の形式で引用してください: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -DOIは準備中であり、利用可能になり次第、引用に追加されます。YOLOv8モデルは[AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE)および[Enterprise](https://ultralytics.com/license)ライセンスで提供されています。 diff --git a/docs/ja/modes/benchmark.md b/docs/ja/modes/benchmark.md deleted file mode 100644 index 91572f3d293..00000000000 --- a/docs/ja/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: YOLOv8を様々なエクスポート形式でスピードと精度をプロファイリングする方法を学び、mAP50-95、accuracy_top5のメトリクスなどの洞察を得る。 -keywords: Ultralytics, YOLOv8, ベンチマーク, スピードプロファイリング, 精度プロファイリング, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, YOLOエクスポート形式 ---- - -# Ultralytics YOLO でのモデルベンチマーク - -Ultralytics YOLOエコシステムと統合 - -## はじめに - -モデルがトレーニングされ、検証された後、次の論理的なステップは、さまざまな現実世界のシナリオでのパフォーマンスを評価することです。Ultralytics YOLOv8 のベンチマークモードは、さまざまなエクスポート形式でモデルのスピードと精度を評価するための頑健なフレームワークを提供します。 - -## ベンチマークが重要な理由は? - -- **情報に基づいた決定:** スピードと精度のトレードオフについての洞察を得る。 -- **リソース割り当て:** 異なるハードウェアで異なるエクスポート形式がどのように動作するかを理解する。 -- **最適化:** 特定のユースケースで最高のパフォーマンスを提供するエクスポート形式を学ぶ。 -- **コスト効率:** ベンチマーク結果に基づいてハードウェアリソースをより効率的に使用する。 - -### ベンチマークモードでの主要なメトリクス - -- **mAP50-95:** 物体検出、セグメンテーション、ポーズ推定に使用。 -- **accuracy_top5:** 画像分類に使用。 -- **推論時間:** 各画像に要する時間(ミリ秒)。 - -### サポートされるエクスポート形式 - -- **ONNX:** 最適なCPUパフォーマンスのために -- **TensorRT:** 最大限のGPU効率のために -- **OpenVINO:** Intelハードウェアの最適化のために -- **CoreML, TensorFlow SavedModel など:** 多様なデプロイメントニーズに。 - -!!! Tip "ヒント" - - * CPUスピードアップのためにONNXまたはOpenVINOにエクスポートする。 - * GPUスピードアップのためにTensorRTにエクスポートする。 - -## 使用例 - -ONNX、TensorRTなど、すべてのサポートされるエクスポート形式でYOLOv8nベンチマークを実行します。完全なエクスポート引数のリストについては、以下のArgumentsセクションを参照してください。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # GPUでベンチマーク - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## 引数 - -`model`、`data`、`imgsz`、`half`、`device`、`verbose` などの引数は、特定のニーズに合わせてベンチマークを微調整し、さまざまなエクスポート形式のパフォーマンスを容易に比較するためにユーザーに柔軟性を提供します。 - -| キー | 値 | 説明 | -|-----------|---------|-----------------------------------------------------------| -| `model` | `None` | モデルファイルへのパス、例: yolov8n.pt, yolov8n.yaml | -| `data` | `None` | ベンチマークデータセットを参照するYAMLへのパス(`val`ラベルの下) | -| `imgsz` | `640` | 画像サイズをスカラーまたは(h, w)リストで、例: (640, 480) | -| `half` | `False` | FP16量子化 | -| `int8` | `False` | INT8量子化 | -| `device` | `None` | 実行デバイス、例: cuda device=0 または device=0,1,2,3 または device=cpu | -| `verbose` | `False` | エラー時に続行しない(bool)、またはval床しきい値(float) | - -## エクスポート形式 - -以下の可能なすべてのエクスポート形式で自動的にベンチマークを試みます。 - -| 形式 | `format` 引数 | モデル | メタデータ | 引数 | -|--------------------------------------------------------------------|---------------|---------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -[エクスポート](https://docs.ultralytics.com/modes/export/)ページでさらに詳しい`export`の詳細をご覧ください。 diff --git a/docs/ja/modes/export.md b/docs/ja/modes/export.md deleted file mode 100644 index fbd30c3c870..00000000000 --- a/docs/ja/modes/export.md +++ /dev/null @@ -1,76 +0,0 @@ ---- -comments: true -description: YOLOv8モデルをONNX, TensorRT, CoreMLなどの様々なフォーマットへエキスポートする手順についてのガイドです。今すぐ展開を探求してください! -keywords: YOLO, YOLOv8, Ultralytics, モデルエキスポート, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, モデルをエキスポート ---- - -# Ultralytics YOLO でのモデルエキスポート - -Ultralytics YOLO エコシステムと統合 - -## はじめに - -モデルのトレーニング終了後の最終目標は、実世界のアプリケーションに導入することです。Ultralytics YOLOv8のエキスポートモードは、トレーニング済みモデルを異なるフォーマットにエキスポートして、様々なプラットフォームやデバイスで展開可能にするための多様なオプションを提供します。この包括的なガイドは、モデルエキスポートのニュアンスをわかりやすく解説し、最大の互換性とパフォーマンスを達成する方法をご紹介します。 - -

-
- -
- 視聴: カスタムトレーニングしたUltralytics YOLOv8モデルをエキスポートして、ウェブカムでリアルタイム推論を実行する方法。 -

- -## YOLOv8のエキスポートモードを選ぶ理由は? - -- **汎用性:** ONNX, TensorRT, CoreMLなど複数のフォーマットへエキスポート。 -- **パフォーマンス:** TensorRTで最大5倍のGPU高速化、ONNXまたはOpenVINOで3倍のCPU高速化を実現。 -- **互換性:** 様々なハードウェアおよびソフトウェア環境でユニバーサルにモデルを展開。 -- **使いやすさ:** シンプルなCLIおよびPython APIで簡単かつ迅速なモデルエキスポート。 - -### エキスポートモードの主要機能 - -いくつかの注目すべき機能は以下の通りです: - -- **ワンクリックエキスポート:** 異なるフォーマットへのシンプルなコマンド。 -- **バッチエキスポート:** バッチ推論対応モデルをエキスポート。 -- **最適化推論:** より高速な推論のために最適化されたエキスポートモデル。 -- **チュートリアル動画:** スムーズなエキスポート体験のための詳細なガイドとチュートリアル。 - -!!! Tip "ヒント" - - * ONNXまたはOpenVINOへのエキスポートで最大3倍のCPU速度アップ。 - * TensorRTへのエキスポートで最大5倍のGPU速度アップ。 - -## 使用例 - -YOLOv8nモデルをONNXやTensorRTなどの異なるフォーマットにエキスポートします。エキスポート引数のフルリストについては、以下のArgumentsセクションをご覧ください。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # Load a model - model = YOLO('yolov8n.pt') # 公式モデルを読み込む - model = YOLO('path/to/best.pt') # カスタムトレーニングモデルを読み込む - - # モデルをエキスポート - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # 公式モデルをエキスポート - yolo export model=path/to/best.pt format=onnx # カスタムトレーニングモデルをエキスポート - ``` - -## 引数 - -YOLOモデルのエキスポート設定 - -[...content truncated for length...] diff --git a/docs/ja/modes/index.md b/docs/ja/modes/index.md deleted file mode 100644 index 2e9abc147e2..00000000000 --- a/docs/ja/modes/index.md +++ /dev/null @@ -1,53 +0,0 @@ ---- -comments: true -description: トレーニングからトラッキングまで、UltralyticsのYOLOv8を活用して最大限に活用します。検証、エクスポート、ベンチマーキングなど、各サポートモードの洞察と例を得る。 -keywords: Ultralytics, YOLOv8, 機械学習, オブジェクト検出, トレーニング, 検証, 予測, エクスポート, トラッキング, ベンチマーキング ---- - -# Ultralytics YOLOv8 モード - -Ultralytics YOLOエコシステムと統合 - -## はじめに - -Ultralytics YOLOv8は、単なるオブジェクト検出モデルではありません; これは、データ収集、モデルトレーニングから検証、デプロイメント、実際のトラッキングに至るまでの機械学習モデルのライフサイクル全体をカバーするように設計された多用途フレームワークです。各モードは特定の目的に役立ち、異なるタスクやユースケースに必要な柔軟性と効率を提供するように工夫されています。 - -

-
- -
- 視聴する: Ultralytics モードチュートリアル: トレーニ、検証、予測、エクスポート & ベンチマーキング。 -

- -### モードの概要 - -Ultralytics YOLOv8がサポートする異なる**モード**を理解することは、モデルから最大限に活用するためには欠かせません: - -- **トレーニング**モード:カスタムまたは事前読み込みされたデータセットでのモデルの微調整を行います。 -- **バリデーション**モード:トレーニング後のチェックポイントとして、モデルの性能を検証します。 -- **予測**モード:実世界のデータでモデルの予測能力を発揮します。 -- **エクスポート**モード:様々な形式でデプロイメント準備ができたモデルを作成します。 -- **トラッキング**モード:オブジェクト検出モデルをリアルタイム追跡アプリケーションに拡張します。 -- **ベンチマーキング**モード:様々なデプロイメント環境でモデルの速度と精度を分析します。 - -この包括的なガイドは、YOLOv8の全潜在能力を引き出すための概要と実践的な洞察を提供することを目指しています。 - -## [トレーニング](train.md) - -トレーニングモードは、カスタムデータセットでYOLOv8モデルのトレーニングを行うために使用されます。このモードでは、指定されたデータセットとハイパーパラメータを使用してモデルがトレーニングされます。トレーニングプロセスには、モデルのパラメータを最適化して、写真内のオブジェクトのクラスと位置を正確に予測できるようにする作業が含まれます。 - -[トレーニング例](train.md){ .md-button } - -## [バリデーション](val.md) - -バリデーションモードは、トレーニングされたYOLOv8モデルを検証するために使用されます。このモードでは、モデルがバリデーションセットで評価され、その精度と一般化性能を測定します。このモードは、モデルのハイパーパラメータを調整し、そのパフォーマンスを向上させるために利用できます。 - -[バリデーション例](val.md){ .md-button } - -## [予測](predict.md) - -予測モードは、新しい画像やビデオでトレーニングされたYOLOv8モデルを使用して予測を行うために使用されます。このモードでは、モデルがチェックポイントファイルから読み込まれ、ユーザーが推論を行うために画像やビデオを提供できます。モデルは、入力した画像やビデオ内のオブジェクトのクラスと位置を予測します。 diff --git a/docs/ja/modes/predict.md b/docs/ja/modes/predict.md deleted file mode 100644 index 6708187b9a5..00000000000 --- a/docs/ja/modes/predict.md +++ /dev/null @@ -1,211 +0,0 @@ ---- -comments: true -description: YOLOv8予測モードの使用方法について学び、画像、動画、データフォーマットなどさまざまな推論ソースについて解説します。 -keywords: Ultralytics, YOLOv8, 予測モード, 推論ソース, 予測タスク, ストリーミングモード, 画像処理, 動画処理, 機械学習, AI ---- - -# Ultralytics YOLOによるモデル予測 - -Ultralytics YOLO ecosystem and integrations - -## イントロダクション - -機械学習やコンピュータビジョンの世界では、視覚データから意味を引き出すプロセスを「推論」または「予測」と呼ばれています。UltralyticsのYOLOv8は、幅広いデータソースに対して高性能でリアルタイムな推論を行うために特化した、「予測モード」と呼ばれる強力な機能を提供しています。 - -

-
- -
- 視聴: Ultralytics YOLOv8モデルの出力をカスタムプロジェクトに取り込む方法を学ぶ。 -

- -## 実際の応用例 - -| 製造業 | スポーツ | 安全 | -|:-----------------------------------------------------------------------------------------------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------:|:---------------------------------------------------------------------------------------------------------------------------:| -| ![Vehicle Spare Parts Detection](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1) | ![Football Player Detection](https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442) | ![People Fall Detection](https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43) | -| 車両のスペアパーツ検出 | フットボール選手検出 | 人の転倒検出 | - -## 予測にUltralytics YOLOを使う理由 - -様々な推論ニーズにYOLOv8の予測モードを検討すべき理由です: - -- **柔軟性:** 画像、動画、さらにはライブストリームにおいて推論を行う能力があります。 -- **パフォーマンス:** 正確さを犠牲にすることなく、リアルタイムで高速な処理が行えるように設計されています。 -- **使いやすさ:** 迅速な展開とテストのための直感的なPythonおよびCLIインターフェース。 -- **高いカスタマイズ性:** 特定の要件に応じてモデルの推論動作を調整するためのさまざまな設定とパラメーター。 - -### 予測モードの主な特徴 - -YOLOv8の予測モードは、頑健で多様性があり、次の特徴を備えています: - -- **複数のデータソースとの互換性:** データが個々の画像、画像の集合、動画ファイル、またはリアルタイムの動画ストリームのいずれの形式であっても、予測モードが対応しています。 -- **ストリーミングモード:** `Results`オブジェクトのメモリ効率の良いジェネレータを生成するためにストリーミング機能を使用します。`stream=True`を予測器の呼び出しメソッドに設定することにより有効になります。 -- **バッチ処理:** 単一のバッチで複数の画像や動画フレームを処理する能力は、さらに推論時間を短縮します。 -- **統合が容易:** 柔軟なAPIのおかげで、既存のデータパイプラインや他のソフトウェアコンポーネントに簡単に統合できます。 - -UltralyticsのYOLOモデルは、`stream=True`が推論中にモデルに渡されると、Pythonの`Results`オブジェクトのリストまたは`Results`オブジェクトのメモリ効率の良いPythonジェネレータのいずれかを返します: - -!!! Example "予測" - - === "`stream=False`でリストを返す" - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n.pt') # 事前にトレーニングされたYOLOv8nモデル - - # 画像のリストに対してバッチ推論を実行 - results = model(['im1.jpg', 'im2.jpg']) # Resultsオブジェクトのリストを返す - - # 結果リストを処理 - for result in results: - boxes = result.boxes # バウンディングボックス出力用のBoxesオブジェクト - masks = result.masks # セグメンテーションマスク出力用のMasksオブジェクト - keypoints = result.keypoints # 姿勢出力用のKeypointsオブジェクト - probs = result.probs # 分類出力用のProbsオブジェクト - ``` - - === "`stream=True`でジェネレータを返す" - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n.pt') # 事前にトレーニングされたYOLOv8nモデル - - # 画像のリストに対してバッチ推論を実行 - results = model(['im1.jpg', 'im2.jpg'], stream=True) # Resultsオブジェクトのジェネレータを返す - - # 結果ジェネレータを処理 - for result in results: - boxes = result.boxes # バウンディングボックス出力用のBoxesオブジェクト - masks = result.masks # セグメンテーションマスク出力用のMasksオブジェクト - keypoints = result.keypoints # 姿勢出力用のKeypointsオブジェクト - probs = result.probs # 分類出力用のProbsオブジェクト - ``` - -## 推論ソース - -YOLOv8は、以下の表に示されるように、異なるタイプの入力ソースを推論に処理できます。ソースには静止画像、動画ストリーム、およびさまざまなデータフォーマットが含まれます。表には、各ソースがストリーミングモードで使用できるかどうかも示されており、引数`stream=True`で✅が表示されています。ストリーミングモードは、動画やライブストリームを処理する場合に有利であり、すべてのフレームをメモリにロードする代わりに結果のジェネレータを作成します。 - -!!! Tip "ヒント" - - 長い動画や大きなデータセットを効率的にメモリ管理するために`stream=True`を使用します。`stream=False`では、すべてのフレームまたはデータポイントの結果がメモリに格納されますが、大きな入力で迅速にメモリが積み上がり、メモリ不足のエラーを引き起こす可能性があります。対照的に、`stream=True`はジェネレータを利用し、現在のフレームまたはデータポイントの結果のみをメモリに保持し、メモリ消費を大幅に削減し、メモリ不足の問題を防ぎます。 - -| ソース | 引数 | タイプ | 備考 | -|------------|--------------------------------------------|------------------|------------------------------------------------------------------| -| 画像 | `'image.jpg'` | `str` または `Path` | 単一の画像ファイル。 | -| URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | 画像へのURL。 | -| スクリーンショット | `'screen'` | `str` | スクリーンショットをキャプチャ。 | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | HWCフォーマットでRGBチャンネル。 | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | HWCフォーマットでBGRチャンネル `uint8 (0-255)`。 | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | HWCフォーマットでBGRチャンネル `uint8 (0-255)`。 | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | BCHWフォーマットでRGBチャンネル `float32 (0.0-1.0)`。 | -| CSV | `'sources.csv'` | `str` または `Path` | 画像、動画、ディレクトリへのパスを含むCSVファイル。 | -| 動画 ✅ | `'video.mp4'` | `str` または `Path` | MP4、AVIなどの形式の動画ファイル。 | -| ディレクトリ ✅ | `'path/'` | `str` または `Path` | 画像または動画を含むディレクトリへのパス。 | -| グロブ ✅ | `'path/*.jpg'` | `str` | 複数のファイルに一致するグロブパターン。ワイルドカードとして`*`文字を使用します。 | -| YouTube ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | YouTube動画のURL。 | -| ストリーム ✅ | `'rtsp://example.com/media.mp4'` | `str` | RTSP、RTMP、TCP、IPアドレスなどのストリーミングプロトコルのためのURL。 | -| マルチストリーム ✅ | `'list.streams'` | `str` または `Path` | ストリームURLを行ごとに1つ含む`*.streams`テキストファイル。つまり、8つのストリームをバッチサイズ8で実行します。 | - -以下は、それぞれのソースタイプを使用するためのコード例です: - -!!! Example "予測ソース" - - === "画像" - 画像ファイルに推論を実行します。 - ```python - from ultralytics import YOLO - - # 事前にトレーニングされたYOLOv8nモデルをロード - model = YOLO('yolov8n.pt') - - # 画像ファイルへのパスを定義 - source = 'path/to/image.jpg' - - # ソースに推論を実行 - results = model(source) # Resultsオブジェクトのリスト - ``` - - === "スクリーンショット" - 現在の画面内容のスクリーンショットに推論を実行します。 - ```python - from ultralytics import YOLO - - # 事前にトレーニングされたYOLOv8nモデルをロード - model = YOLO('yolov8n.pt') - - # 現在のスクリーンショットをソースとして定義 - source = 'screen' - - # ソースに推論を実行 - results = model(source) # Resultsオブジェクトのリスト - ``` - - === "URL" - リモートのURL経由でホストされている画像や動画に推論を実行します。 - ```python - from ultralytics import YOLO - - # 事前にトレーニングされたYOLOv8nモデルをロード - model = YOLO('yolov8n.pt') - - # リモート画像や動画のURLを定義 - source = 'https://ultralytics.com/images/bus.jpg' - - # ソースに推論を実行 - results = model(source) # Resultsオブジェクトのリスト - ``` - - === "PIL" - Python Imaging Library (PIL)を使用して開いた画像に推論を実行します。 - ```python - from PIL import Image - from ultralytics import YOLO - - # 事前にトレーニングされたYOLOv8nモデルをロード - model = YOLO('yolov8n.pt') - - # PILを使用して画像を開く - source = Image.open('path/to/image.jpg') - - # ソースに推論を実行 - results = model(source) # Resultsオブジェクトのリスト - ``` - - === "OpenCV" - OpenCVを使用して読み込んだ画像に推論を実行します。 - ```python - import cv2 - from ultralytics import YOLO - - # 事前にトレーニングされたYOLOv8nモデルをロード - model = YOLO('yolov8n.pt') - - # OpenCVを使用して画像を読み込む - source = cv2.imread('path/to/image.jpg') - - # ソースに推論を実行 - results = model(source) # Resultsオブジェクトのリスト - ``` - - === "numpy" - numpy配列として表される画像に推論を実行します。 - ```python - import numpy as np - from ultralytics import YOLO - - # 事前にトレーニングされたYOLOv8nモデルをロード - model = YOLO('yolov8n.pt') - - # HWC形状(640, 640, 3)、範囲[0, 255]、型`uint8`のランダムなnumpy配列を作成 - source = np.random.randint(low=0, high=255, size=(640,640,3), dtype='uint8') - - # ソースに推論を実行 - results = model(source) # Resultsオブジェクトのリスト - ``` diff --git a/docs/ja/modes/track.md b/docs/ja/modes/track.md deleted file mode 100644 index 56453f9ed32..00000000000 --- a/docs/ja/modes/track.md +++ /dev/null @@ -1,200 +0,0 @@ ---- -comments: true -description: Ultralytics YOLOを使用したビデオストリームでのオブジェクトトラッキングの使用方法を学びます。異なるトラッカーの使用ガイドとトラッカー構成のカスタマイズについて。 -keywords: Ultralytics, YOLO, オブジェクトトラッキング, ビデオストリーム, BoT-SORT, ByteTrack, Pythonガイド, CLIガイド ---- - -# Ultralytics YOLOによる複数オブジェクトのトラッキング - -複数オブジェクトのトラッキング例 - -ビデオ分析の領域でのオブジェクトトラッキングは、フレーム内のオブジェクトの位置とクラスを特定するだけでなく、ビデオが進行するにつれてそれぞれの検出されたオブジェクトにユニークなIDを維持する重要なタスクです。その応用範囲は無限で、監視やセキュリティからリアルタイムスポーツ分析まで及びます。 - -## オブジェクトトラッキングにUltralytics YOLOを選ぶ理由は? - -Ultralyticsのトラッカーからの出力は標準のオブジェクト検出と一致しており、さらにオブジェクトIDの付加価値があります。これにより、ビデオストリーム内のオブジェクトを追跡し、後続の分析を行うことが容易になります。Ultralytics YOLOをオブジェクトトラッキングのニーズに利用を検討する理由は以下の通りです: - -- **効率性:** 精度を損なうことなくリアルタイムでビデオストリームを処理します。 -- **柔軟性:** 複数のトラッキングアルゴリズムと構成をサポートしています。 -- **使いやすさ:** 簡単なPython APIとCLIオプションで迅速な統合と展開が可能です。 -- **カスタマイズ性:** カスタムトレーニング済みのYOLOモデルとの容易な使用により、ドメイン特有のアプリケーションへの統合が可能です。 - -

-
- -
- 視聴: Ultralytics YOLOv8によるオブジェクト検出とトラッキング。 -

- -## 実世界での応用例 - -| 交通 | 小売 | 水産業 | -|:---------------------------------------------------------------------------------------------------------------:|:---------------------------------------------------------------------------------------------------------------:|:--------------------------------------------------------------------------------------------------------------:| -| ![車両のトラッキング](https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab) | ![人々のトラッキング](https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527) | ![魚のトラッキング](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142) | -| 車両トラッキング | 人々のトラッキング | 魚のトラッキング | - -## 一目でわかる機能 - -Ultralytics YOLOは、オブジェクト検出機能を拡張して、堅牢で多機能なオブジェクトトラッキングを提供します: - -- **リアルタイムトラッキング:** 高フレームレートのビデオでオブジェクトをシームレスに追跡します。 -- **複数トラッカーサポート:** 確立されたトラッキングアルゴリズムから選択できます。 -- **カスタマイズ可能なトラッカー構成:** 様々なパラメーターを調整することで特定の要件に合わせてトラッキングアルゴリズムを調整します。 - -## 利用可能なトラッカー - -Ultralytics YOLOは、次のトラッキングアルゴリズムをサポートしています。それらは、関連するYAML構成ファイル(たとえば`tracker=tracker_type.yaml`)を渡すことで有効にすることができます: - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - このトラッカーを有効にするには`botsort.yaml`を使用します。 -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - このトラッカーを有効にするには`bytetrack.yaml`を使用します。 - -デフォルトのトラッカーはBoT-SORTです。 - -## トラッキング - -ビデオストリームでトラッカーを実行するには、YOLOv8n、YOLOv8n-seg、YOLOv8n-poseなどのトレーニング済みのDetect、Segment、またはPoseモデルを使用します。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 公式またはカスタムモデルをロード - model = YOLO('yolov8n.pt') # 公式のDetectモデルをロード - model = YOLO('yolov8n-seg.pt') # 公式のSegmentモデルをロード - model = YOLO('yolov8n-pose.pt') # 公式のPoseモデルをロード - model = YOLO('path/to/best.pt') # カスタムトレーニング済みモデルをロード - - # モデルでトラッキングを実行 - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # デフォルトトラッカーでトラッキング - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # ByteTrackトラッカーでトラッキング - ``` - - === "CLI" - - ```bash - # コマンドラインインターフェースを使用して、様々なモデルでトラッキングを実行 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # 公式のDetectモデル - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # 公式のSegmentモデル - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # 公式のPoseモデル - yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # カスタムトレーニング済みモデル - - # ByteTrackトラッカーを使用してトラッキング - yolo track model=path/to/best.pt tracker="bytetrack.yaml" - ``` - -上記の使用法に示されているように、トラッキングはビデオやストリーミングソースで実行されるすべてのDetect、Segment、およびPoseモデルで利用可能です。 - -## 構成 - -### トラッキング引数 - -トラッキング構成は、`conf`、`iou`、および`show`などのPredictモードと同じプロパティを共有します。さらなる構成については、[Predict](https://docs.ultralytics.com/modes/predict/)モデルページを参照してください。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # トラッキングパラメーターを構成し、トラッカーを実行 - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # コマンドラインインターフェースを使用してトラッキングパラメータを構成し、トラッカーを実行 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### トラッカーの選択 - -Ultralyticsは、変更されたトラッカー構成ファイルの使用も可能にします。これを行うには、[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)からトラッカー構成ファイル(たとえば`custom_tracker.yaml`)のコピーを作成し、必要に応じて任意の構成(`tracker_type`を除く)を変更します。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードし、カスタム構成ファイルでトラッカーを実行 - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # コマンドラインインターフェースを使用して、カスタム構成ファイルでモデルをロードし、トラッカーを実行 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -トラッキング引数の包括的なリストについては、[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)ページを参照してください。 - -## Pythonの例 - -### トラックループの永続化 - -次は、OpenCV (`cv2`)とYOLOv8を使用してビデオフレームでオブジェクトトラッキングを実行するPythonスクリプトです。このスクリプトでは、必要なパッケージ(`opencv-python`および`ultralytics`)が既にインストールされていることが前提です。`persist=True`引数は、トラッカーに現在の画像またはフレームがシーケンスの次のものであり、現在の画像に前の画像からのトラックを期待することを伝えます。 - -!!! Example "トラッキングを伴うストリーミングforループ" - - ```python - import cv2 - from ultralytics import YOLO - - # YOLOv8モデルをロード - model = YOLO('yolov8n.pt') - - # ビデオファイルを開く - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # ビデオフレームをループする - while cap.isOpened(): - # ビデオからフレームを読み込む - success, frame = cap.read() - - if success: - # フレームでYOLOv8トラッキングを実行し、フレーム間でトラックを永続化 - results = model.track(frame, persist=True) - - # フレームに結果を可視化 - annotated_frame = results[0].plot() - - # 注釈付きのフレームを表示 - cv2.imshow("YOLOv8トラッキング", annotated_frame) - - # 'q'が押されたらループから抜ける - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # ビデオの終わりに到達したらループから抜ける - break - - # ビデオキャプチャオブジェクトを解放し、表示ウィンドウを閉じる - cap.release() - cv2.destroyAllWindows() - ``` - -ここでの変更は、単純な検出ではなくオブジェクトトラッキングを有効にする`model(frame)`から`model.track(frame)`への変更です。この変更されたスクリプトは、ビデオの各フレームでトラッカーを実行し、結果を視覚化し、ウィンドウに表示します。ループは'q'を押すことで終了できます。 - -## 新しいトラッカーの貢献 - -あなたはマルチオブジェクトトラッキングに精通しており、Ultralytics YOLOでトラッキングアルゴリズムをうまく実装または適応させたことがありますか?[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)セクションへの貢献を私たちは歓迎します!あなたの実世界での応用例とソリューションは、トラッキングタスクに取り組むユーザーにとって非常に有益かもしれません。 - -このセクションへの貢献により、Ultralytics YOLOフレームワーク内で利用可能なトラッキングソリューションの範囲が広がり、コミュニティにとっての機能性とユーティリティーに新たな層が加わります。 - -ご自身の貢献を開始するには、プルリクエスト(PR)の送信に関する総合的な指示について我々の[貢献ガイド](https://docs.ultralytics.com/help/contributing)をご参照ください 🛠️。あなたが何をもたらすか私たちは期待しています! - -一緒に、Ultralytics YOLOエコシステムのトラッキング機能を高めましょう 🙏! diff --git a/docs/ja/modes/train.md b/docs/ja/modes/train.md deleted file mode 100644 index c8d36424ed2..00000000000 --- a/docs/ja/modes/train.md +++ /dev/null @@ -1,206 +0,0 @@ ---- -comments: true -description: YOLOv8モデルをUltralytics YOLOを使用してトレーニングする手順についてのガイドで、シングルGPUとマルチGPUトレーニングの例を含む -keywords: Ultralytics, YOLOv8, YOLO, 物体検出, トレーニングモード, カスタムデータセット, GPUトレーニング, マルチGPU, ハイパーパラメータ, CLI例, Python例 ---- - -# Ultralytics YOLOを使ったモデルトレーニング - -Ultralytics YOLOエコシステムと統合 - -## はじめに - -ディープラーニングモデルのトレーニングは、データを与えてパラメーターを調整し、正確な予測を行えるようにするプロセスを含みます。UltralyticsのYOLOv8のトレーニングモードは、現代のハードウェアの能力をフルに活用して物体検出モデルを効果的かつ効率的にトレーニングするために設計されています。このガイドは、YOLOv8 の豊富な機能セットを使用して自身のモデルをトレーニングするために必要なすべての詳細をカバーすることを目的としています。 - -

-
- -
- 視聴: Google Colab でカスタムデータセットにYOLOv8モデルをトレーニングする方法。 -

- -## トレーニングにUltralyticsのYOLOを選ぶ理由 - -YOLOv8のトレーニングモードを選択するいくつかの魅力的な理由を以下に示します: - -- **効率性:** シングルGPUセットアップであろうと複数のGPUにスケールする場合であろうと、あなたのハードウェアを最大限に活用します。 -- **汎用性:** COCO、VOC、ImageNetのような既存のデータセットに加え、カスタムデータセットでのトレーニングが可能です。 -- **ユーザーフレンドリー:** 直感的でありながら強力なCLIとPythonインターフェースを備え、簡単なトレーニング体験を提供します。 -- **ハイパーパラメータの柔軟性:** モデルのパフォーマンスを微調整するための幅広いカスタマイズ可能なハイパーパラメータ。 - -### トレーニングモードの主な特徴 - -以下に、YOLOv8のトレーニングモードのいくつかの注目すべき特徴を挙げます: - -- **自動データセットダウンロード:** COCO、VOC、ImageNetのような標準データセットは最初の使用時に自動的にダウンロードされます。 -- **マルチGPUサポート:** 複数のGPUにわたってトレーニングをスケールし、プロセスを迅速に行います。 -- **ハイパーパラメータの設定:** YAML設定ファイルやCLI引数を通じてハイパーパラメータを変更するオプション。 -- **可視化とモニタリング:** トレーニング指標のリアルタイム追跡と学習プロセスの可視化により、より良い洞察を得ます。 - -!!! Tip "ヒント" - - * YOLOv8のデータセット、例えばCOCO、VOC、ImageNetなどは、最初の使用時に自動的にダウンロードされます。例:`yolo train data=coco.yaml` - -## 使用例 - -COCO128データセットでYOLOv8nを100エポック、画像サイズ640でトレーニングする。トレーニングデバイスは、`device`引数を使って指定できます。引数が渡されない場合、利用可能であればGPU `device=0`が、そうでなければ`device=cpu`が利用されます。全てのトレーニング引数のリストは以下の引数セクションを参照してください。 - -!!! Example "シングルGPUとCPUトレーニング例" - - デバイスは自動的に決定されます。GPUが利用可能であればそれが使用され、そうでなければCPUでトレーニングが開始されます。 - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n.yaml') # YAMLから新しいモデルを作成 - model = YOLO('yolov8n.pt') # トレーニングにはおすすめの事前学習済みモデルをロード - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAMLからモデルを作成し、重みを転送 - - # モデルをトレーニング - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash - # YAMLから新しいモデルを作成し、最初からトレーニングを開始 - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # 事前学習済み*.ptモデルからトレーニングを開始 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # YAMLから新しいモデルを作成し、事前学習済みの重みを転送してトレーニングを開始 - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### マルチGPUトレーニング - -マルチGPUトレーニングは、利用可能なハードウェアリソースをより効率的に活用するために、トレーニングの負荷を複数のGPUに分散させることを可能にします。この機能はPython APIとコマンドラインインターフェィスの両方を通じて利用できます。マルチGPUトレーニングを有効にするには、使用したいGPUデバイスIDを指定します。 - -!!! Example "マルチGPUトレーニング例" - - 2つのGPUを使ってトレーニングするには、CUDAデバイス0と1を使い以下のコマンドを使用します。必要に応じて追加のGPUに拡張します。 - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n.pt') # トレーニングにはおすすめの事前学習済みモデルをロード - - # 2つのGPUでモデルをトレーニング - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # 事前学習済み*.ptモデルからGPU 0と1を使ってトレーニングを開始 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### Apple M1 および M2 MPSトレーニング - -AppleのM1およびM2チップに対するサポートがUltralyticsのYOLOモデルに統合されたことで、Appleの強力なMetal Performance Shaders(MPS)フレームワークを使用してデバイスでモデルをトレーニングすることが可能になりました。 MPSは、Appleのカスタムシリコン上での計算や画像処理タスクの高性能な実行方法を提供します。 - -AppleのM1およびM2チップでのトレーニングを有効にするには、トレーニングプロセスを開始する際に`mps`をデバイスとして指定する必要があります。以下はPythonおよびコマンドラインでこれを行う例です: - -!!! Example "MPSトレーニング例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n.pt') # トレーニングにはおすすめの事前学習済みモデルをロード - - # MPSを使ってモデルをトレーニング - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # MPSを使って、事前学習済み*.ptモデルからトレーニングを開始 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -M1/M2チップの計算能力を利用しながら、これによりトレーニングタスクのより効率的な処理が可能になります。より詳細なガイダンスや高度な設定オプションについては、[PyTorch MPSのドキュメント](https://pytorch.org/docs/stable/notes/mps.html)を参照してください。 - -## ロギング - -YOLOv8モデルをトレーニングする際、モデルのパフォーマンスを時間とともに追跡することが価値あることであると考えられます。これがロギングの役割になります。UltralyticsのYOLOは、Comet、ClearML、TensorBoardの3種類のロガーをサポートしています。 - -ロガーを使用するには、上記のコードスニペットからドロップダウンメニューを選択し、実行します。選択したロガーがインストールされ、初期化されます。 - -### Comet - -[Comet](https://www.comet.ml/site/)は、データサイエンティストや開発者が実験やモデルを追跡、比較、説明、最適化するためのプラットフォームです。リアルタイムメトリクスやコード差分、ハイパーパラメータの追跡などの機能を提供しています。 - -Cometを使用するには: - -!!! Example "例" - - === "Python" - ```python - # pip install comet_ml - import comet_ml - - comet_ml.init() - ``` - -Cometアカウントにサインインし、APIキーを取得してください。このキーを環境変数またはスクリプトに追加して、実験をログに記録する必要があります。 - -### ClearML - -[ClearML](https://www.clear.ml/)は、実験の追跡を自動化し、資源の効率的な共有を支援するオープンソースプラットフォームです。チームがML作業をより効率的に管理、実行、再現するのに役立ちます。 - -ClearMLを使用するには: - -!!! Example "例" - - === "Python" - ```python - # pip install clearml - import clearml - - clearml.browser_login() - ``` - -このスクリプトを実行した後、ブラウザでClearMLアカウントにサインインし、セッションを認証する必要があります。 - -### TensorBoard - -[TensorBoard](https://www.tensorflow.org/tensorboard)は、TensorFlowの視覚化ツールキットです。TensorFlowグラフを可視化し、グラフの実行に関する定量的メトリックをプロットし、それを通過する画像などの追加データを表示することができます。 - -[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)でTensorBoardを使用するには: - -!!! Example "例" - - === "CLI" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # 'runs'ディレクトリと置き換えてください - ``` - -TensorBoardをローカルで使用する場合は、http://localhost:6006/ で結果を確認できます。 - -!!! Example "例" - - === "CLI" - ```bash - tensorboard --logdir ultralytics/runs # 'runs'ディレクトリと置き換えてください - ``` - -これでTensorBoardがロードされ、トレーニングログが保存されているディレクトリを指定します。 - -ログを設定した後、モデルのトレーニングを進めてください。すべてのトレーニングメトリクスが選択したプラットフォームに自動的に記録され、これらのログをアクセスして、時間とともにモデルのパフォーマンスを監視したり、さまざまなモデルを比較したり、改善の余地を特定したりすることができます。 diff --git a/docs/ja/modes/val.md b/docs/ja/modes/val.md deleted file mode 100644 index 354ca3746e1..00000000000 --- a/docs/ja/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: YOLOv8モデルのバリデーションガイド。バリデーション設定とメトリクスを使用してYOLOモデルのパフォーマンスを評価する方法をPythonとCLIの例で学びましょう。 -keywords: Ultralytics, YOLO ドキュメント, YOLOv8, バリデーション, モデル評価, ハイパーパラメータ, 正確性, メトリクス, Python, CLI ---- - -# Ultralytics YOLOによるモデルバリデーション - -Ultralytics YOLOのエコシステムと統合機能 - -## はじめに - -バリデーションは、訓練されたモデルの品質を評価するために機械学習パイプラインで重要なステップです。Ultralytics YOLOv8のValモードは、モデルのパフォーマンスを評価するための堅牢なツールとメトリクスを提供します。このガイドは、Valモードを効果的に使用して、モデルが正確で信頼できることを確認するための完全なリソースとなっています。 - -## Ultralytics YOLOでバリデーションを行う利点 - -YOLOv8のValモードを使用することの利点は以下の通りです: - -- **Precision(精度):** mAP50、mAP75、mAP50-95といった正確なメトリクスを取得し、モデルを総合的に評価します。 -- **Convenience(便利さ):** 訓練設定を記憶する組み込みの機能を利用して、バリデーションプロセスを簡素化します。 -- **Flexibility(柔軟性):** 同じデータセットや異なるデータセット、画像サイズでモデルをバリデーションできます。 -- **Hyperparameter Tuning(ハイパーパラメータチューニング):** バリデーションメトリクスを利用してモデルのパフォーマンスを向上させるためのチューニングを行います。 - -### Valモードの主要機能 - -YOLOv8のValモードにより提供される注目すべき機能は以下の通りです: - -- **Automated Settings(自動設定):** 訓練時の設定をモデルが記憶しているため、バリデーションが直感的に行えます。 -- **Multi-Metric Support(複数メトリックのサポート):** 精度メトリックの範囲に基づいてモデルを評価します。 -- **CLI and Python API:** バリデーションにコマンドラインインターフェイスもしくはPython APIのどちらかを選択できます。 -- **Data Compatibility(データ互換性):** 訓練段階で使われたデータセットはもちろん、カスタムデータセットともシームレスに動作します。 - -!!! Tip "Tip" - - * YOLOv8モデルは訓練設定を自動的に記憶しているので、`yolo val model=yolov8n.pt`や`model('yolov8n.pt').val()`だけで、元のデータセットと同じ画像サイズで簡単にバリデーション可能です。 - -## 使用例 - -COCO128データセット上で訓練済みのYOLOv8nモデルの精度を検証します。`model`はその訓練時の`data`及び引数をモデル属性として保持しているため、引数を渡す必要はありません。全てのエクスポート引数のリストについては、以下のArgumentsセクションをご覧ください。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードする - model = YOLO('yolov8n.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムモデルをロード - - # モデルをバリデーションする - metrics = model.val() # 引数は必要なし、データセットと設定は記憶持ち - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 各カテゴリのmap50-95が含まれたリスト - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # 公式モデルをバリデーション - yolo detect val model=path/to/best.pt # カスタムモデルをバリデーション - ``` - -## 引数 - -YOLOモデルに対するバリデーション設定は、バリデーションデータセット上でのモデルのパフォーマンスを評価するために使用されるさまざまなハイパーパラメータと設定を指します。これらの設定は、モデルのパフォーマンス、スピード、そして精度に影響を与える可能性があります。一般的なYOLOのバリデーション設定には、バッチサイズや訓練中のバリデーション頻度、モデルのパフォーマンスを評価するために使用されるメトリックが含まれます。バリデーションプロセスに影響を与えるかもしれない他の要素には、バリデーションデータセットのサイズと構成、およびモデルが使用されている具体的なタスクなどがあります。モデルがバリデーションデータセット上でうまく動作していることを確認し、過学習を検出して防ぐために、これらの設定を慎重にチューニングして実験することが重要です。 - -| キー | 値 | 説明 | -|---------------|---------|--------------------------------------------------| -| `data` | `None` | データファイルへのパス、例: coco128.yaml | -| `imgsz` | `640` | 入力画像のサイズを整数で | -| `batch` | `16` | バッチごとの画像数(AutoBatchの場合は-1) | -| `save_json` | `False` | JSONファイルに結果を保存 | -| `save_hybrid` | `False` | ハイブリッドバージョンのラベルを保存(ラベル+追加の予測) | -| `conf` | `0.001` | 検出のためのオブジェクト信頼度閾値 | -| `iou` | `0.6` | NMS用の交差オーバーユニオン(IoU)閾値 | -| `max_det` | `300` | 画像あたりの最大検出数 | -| `half` | `True` | 半精度(FP16)を使用する | -| `device` | `None` | 実行デバイス、例: cuda device=0/1/2/3やdevice=cpu | -| `dnn` | `False` | ONNX推論用のOpenCV DNNを使用 | -| `plots` | `False` | 訓練中にプロットを表示 | -| `rect` | `False` | 各バッチが最小限のパディングで整理された矩形バリデーション | -| `split` | `val` | バリデーションに使用するデータセットのスプリット、例: 'val'、'test'、'train' | -| | | | diff --git a/docs/ja/quickstart.md b/docs/ja/quickstart.md deleted file mode 100644 index 14be35194c0..00000000000 --- a/docs/ja/quickstart.md +++ /dev/null @@ -1,198 +0,0 @@ ---- -comments: true -description: Ultralyticsのpip、conda、git、Dockerを使用した様々なインストール方法を探索し、コマンドラインインターフェースまたはPythonプロジェクト内でのUltralyticsの使用方法を学びます。 -keywords: Ultralyticsインストール, pipインストールUltralytics, DockerインストールUltralytics, Ultralyticsコマンドラインインターフェース, Ultralytics Pythonインターフェース ---- - -## Ultralyticsのインストール - -Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方法を提供しています。最新の安定版リリースである`ultralytics` pipパッケージを通じてYOLOv8をインストールするか、最新バージョンを取得するために[Ultralytics GitHubリポジトリ](https://github.com/ultralytics/ultralytics)をクローンします。Dockerは、ローカルインストールを回避し、孤立したコンテナ内でパッケージを実行するために使用できます。 - -!!! Example "インストール" - - === "Pipでのインストール(推奨)" - pipを使用して`ultralytics`パッケージをインストールするか、`pip install -U ultralytics`を実行して既存のインストールをアップデートします。`ultralytics`パッケージの詳細については、Python Package Index(PyPI)を参照してください: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/)。 - - [![PyPI version](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Downloads](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # PyPIからultralyticsパッケージをインストール - pip install ultralytics - ``` - - GitHubの[リポジトリ](https://github.com/ultralytics/ultralytics)から直接`ultralytics`パッケージをインストールすることもできます。これは、最新の開発版が必要な場合に便利かもしれません。システムにGitコマンドラインツールがインストールされている必要があります。`@main`コマンドは`main`ブランチをインストールし、別のブランチ、例えば`@my-branch`に変更したり、`main`ブランチにデフォルトするために完全に削除することができます。 - - ```bash - # GitHubからultralyticsパッケージをインストール - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "Condaでのインストール" - Condaはpipの代わりのパッケージマネージャーで、インストールにも使用できます。より詳細はAnacondaを参照してください [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics)。Condaパッケージを更新するためのUltralyticsフィードストックリポジトリはこちらです [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/)。 - - - [![Conda Recipe](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Downloads](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Version](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Platforms](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # Condaを使用してultralyticsパッケージをインストール - conda install -c conda-forge ultralytics - ``` - - !!! Note "ノート" - - CUDA環境でインストールする場合、パッケージマネージャーが競合を解決できるようにするため、`ultralytics`、`pytorch`、`pytorch-cuda`を同じコマンドで一緒にインストールするのがベストプラクティスです。または、CPU専用の`pytorch`パッケージに必要な場合は上書きするように`pytorch-cuda`を最後にインストールします。 - ```bash - # Condaを使用して一緒にすべてのパッケージをインストール - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Conda Dockerイメージ - - UltralyticsのConda Dockerイメージも[DockerHub](https://hub.docker.com/r/ultralytics/ultralytics)から利用可能です。これらのイメージは[Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/)に基づいており、Conda環境で`ultralytics`を使用する簡単な方法です。 - - ```bash - # イメージ名を変数として設定 - t=ultralytics/ultralytics:latest-conda - - # Docker Hubから最新のultralyticsイメージをプル - sudo docker pull $t - - # すべてのGPUを持つコンテナでultralyticsイメージを実行 - sudo docker run -it --ipc=host --gpus all $t # すべてのGPU - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # GPUを指定 - ``` - - === "Gitクローン" - 開発への貢献に興味がある場合や、最新のソースコードで実験したい場合は、`ultralytics`リポジトリをクローンしてください。クローンした後、ディレクトリに移動し、pipを使って編集可能モード`-e`でパッケージをインストールします。 - ```bash - # ultralyticsリポジトリをクローン - git clone https://github.com/ultralytics/ultralytics - - # クローンしたディレクトリに移動 - cd ultralytics - - # 開発用に編集可能モードでパッケージをインストール - pip install -e . - ``` - -必要な依存関係のリストについては、`ultralytics`の[requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml)ファイルを参照してください。上記の全ての例では、必要な依存関係を全てインストールします。 - -

-
- -
- Watch: Ultralytics YOLO Quick Start Guide -

- -!!! Tip "ヒント" - - PyTorchの要件はオペレーティングシステムとCUDAの要件によって異なるため、[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)に従って最初にPyTorchをインストールすることをお勧めします。 - - - PyTorch Installation Instructions - - -## CLIでUltralyticsを使用 - -Ultralyticsコマンドラインインターフェース(CLI)を使用すると、Python環境がなくても単一の行のコマンドを簡単に実行できます。CLIはカスタマイズもPythonコードも必要ありません。単純にすべてのタスクを`yolo`コマンドでターミナルから実行することができます。コマンドラインからYOLOv8を使用する方法について詳しくは、[CLIガイド](/../usage/cli.md)を参照してください。 - -!!! Example "例" - - === "構文" - - Ultralyticsの`yolo`コマンドは以下の構文を使用します: - ```bash - yolo TASK MODE ARGS - - ここで TASK(オプション)は[detect, segment, classify]のうちの1つ - MODE(必須)は[train, val, predict, export, track]のうちの1つ - ARGS(オプション)はデフォルトを上書きする任意の数のカスタム'arg=value'ペアです。 - ``` - full [Configuration Guide](/../usage/cfg.md)または`yolo cfg`で全てのARGSを確認してください - - === "トレーニング" - - 10エポックにわたって初期学習率0.01で検出モデルをトレーニング - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "予測" - - 画像サイズ320で事前トレーニングされたセグメンテーションモデルを使用してYouTubeビデオを予測: - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "検証" - - バッチサイズ1および画像サイズ640で事前トレーニングされた検出モデルを検証する: - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "エクスポート" - - 画像サイズ224 x 128でYOLOv8n分類モデルをONNX形式にエクスポート(TASKは不要) - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "特殊" - - バージョンを確認したり、設定を表示したり、チェックを行ったりするための特別なコマンドを実行します: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "警告" - - 引数は`arg=val`ペアとして渡され、`=`記号で分割され、ペア間にスペース` `が必要です。引数のプレフィックスに`--`や引数間にカンマ`,`を使用しないでください。 - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`   ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25`   ❌ - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25`   ❌ - -[CLIガイド](/../usage/cli.md){ .md-button } - -## PythonでUltralyticsを使用 - -YOLOv8のPythonインターフェースを使用すると、Pythonプロジェクトにシームレスに統合し、モデルをロード、実行、出力を処理することが可能です。簡単さと使いやすさを念頭に設計されたPythonインターフェースにより、ユーザーは素早くプロジェクトに物体検出、セグメンテーション、分類を実装することができます。このように、YOLOv8のPythonインターフェースは、これらの機能をPythonプロジェクトに取り入れたいと考えている方にとって貴重なツールです。 - -たとえば、ユーザーはモデルをロードして、トレーニングし、検証セットでのパフォーマンスを評価し、ONNX形式にエクスポートするまでの一連の処理を数行のコードで行うことができます。YOLOv8をPythonプロジェクトで使用する方法について詳しくは、[Pythonガイド](/../usage/python.md)を参照してください。 - -!!! Example "例" - - ```python - from ultralytics import YOLO - - # スクラッチから新しいYOLOモデルを作成 - model = YOLO('yolov8n.yaml') - - # 事前トレーニドされたYOLOモデルをロード(トレーニングに推奨) - model = YOLO('yolov8n.pt') - - # 'coco128.yaml'データセットを使用して3エポックでモデルをトレーニング - results = model.train(data='coco128.yaml', epochs=3) - - # モデルのパフォーマンスを検証セットで評価 - results = model.val() - - # モデルを使用して画像で物体検出を実行 - results = model('https://ultralytics.com/images/bus.jpg') - - # モデルをONNX形式にエクスポート - success = model.export(format='onnx') - ``` - -[Pythonガイド](/../usage/python.md){.md-button .md-button--primary} diff --git a/docs/ja/tasks/classify.md b/docs/ja/tasks/classify.md deleted file mode 100644 index 3963c4c0447..00000000000 --- a/docs/ja/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: YOLOv8 分類モデルについての画像分類。事前トレーニングされたモデルのリストとモデルのトレーニング、検証、予測、エクスポート方法の詳細情報を学びます。 -keywords: Ultralytics, YOLOv8, 画像分類, 事前トレーニングされたモデル, YOLOv8n-cls, トレーニング, 検証, 予測, モデルエクスポート ---- - -# 画像分類 - -画像分類の例 - -画像分類は3つのタスクの中で最も単純で、1枚の画像をあらかじめ定義されたクラスのセットに分類します。 - -画像分類器の出力は単一のクラスラベルと信頼度スコアです。画像がどのクラスに属しているかのみを知る必要があり、クラスのオブジェクトがどこにあるか、その正確な形状は必要としない場合に画像分類が役立ちます。 - -!!! Tip "ヒント" - - YOLOv8 分類モデルは `-cls` 接尾辞を使用します。例: `yolov8n-cls.pt` これらは [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) で事前にトレーニングされています。 - -## [モデル](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -ここに事前トレーニングされた YOLOv8 分類モデルが表示されています。検出、セグメンテーション、ポーズモデルは [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) データセットで事前にトレーニングされていますが、分類モデルは [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) で事前にトレーニングされています。 - -[モデル](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) は初回使用時に Ultralytics の最新 [リリース](https://github.com/ultralytics/assets/releases) から自動的にダウンロードされます。 - -| モデル | サイズ
(ピクセル) | 正確性
トップ1 | 正確性
トップ5 | スピード
CPU ONNX
(ms) | スピード
A100 TensorRT
(ms) | パラメータ
(M) | FLOPs
(B) at 640 | -|----------------------------------------------------------------------------------------------|--------------------|------------------|------------------|-------------------------------|------------------------------------|-------------------|--------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- **正確性** の値は [ImageNet](https://www.image-net.org/) データセットの検証セットでのモデルの正確性です。 -
再現するには `yolo val classify data=path/to/ImageNet device=0` -- **スピード** は [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) インスタンスを使用して ImageNet 検証画像を平均化したものです。 -
再現するには `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` - -## トレーニング - -画像サイズ64で100エポックにわたってMNIST160データセットにYOLOv8n-clsをトレーニングします。利用可能な引数の完全なリストについては、[設定](/../usage/cfg.md) ページを参照してください。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードする - model = YOLO('yolov8n-cls.yaml') # YAMLから新しいモデルをビルド - model = YOLO('yolov8n-cls.pt') # 事前にトレーニングされたモデルをロード(トレーニングに推奨) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # YAMLからビルドしてウェイトを転送 - - # モデルをトレーニングする - results = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # YAMLから新しいモデルをビルドし、ゼロからトレーニングを開始 - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # 事前にトレーニングされた *.pt モデルからトレーニングを開始 - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # YAMLから新しいモデルをビルドし、事前トレーニングされたウェイトを転送してトレーニングを開始 - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### データセットフォーマット - -YOLO分類データセットのフォーマットの詳細は [データセットガイド](../../../datasets/classify/index.md) にあります。 - -## 検証 - -MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの正確性を検証します。引数は必要ありません。`model` はトレーニング時の `data` および引数をモデル属性として保持しています。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードする - model = YOLO('yolov8n-cls.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムモデルをロード - - # モデルを検証する - metrics = model.val() # 引数不要、データセットと設定は記憶されている - metrics.top1 # トップ1の正確性 - metrics.top5 # トップ5の正確性 - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # 公式モデルを検証 - yolo classify val model=path/to/best.pt # カスタムモデルを検証 - ``` - -## 予測 - -トレーニング済みのYOLOv8n-clsモデルを使用して、画像に対する予測を実行します。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードする - model = YOLO('yolov8n-cls.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムモデルをロード - - # モデルで予測する - results = model('https://ultralytics.com/images/bus.jpg') # 画像で予測 - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # 公式モデルで予測 - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # カスタムモデルで予測 - ``` - -`predict` モードの完全な詳細は [予測](https://docs.ultralytics.com/modes/predict/) ページを参照してください。 - -## エクスポート - -YOLOv8n-clsモデルをONNX、CoreMLなどの異なる形式にエクスポートします。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードする - model = YOLO('yolov8n-cls.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムトレーニングされたモデルをロード - - # モデルをエクスポートする - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # 公式モデルをエクスポート - yolo export model=path/to/best.pt format=onnx # カスタムトレーニングされたモデルをエクスポート - ``` - -利用可能な YOLOv8-cls エクスポート形式は以下の表にあります。エクスポートされたモデルで直接予測または検証が可能です、例: `yolo predict model=yolov8n-cls.onnx`。エクスポート完了後、モデルの使用例が表示されます。 - -| 形式 | `format` 引数 | モデル | メタデータ | 引数 | -|--------------------------------------------------------------------|---------------|-------------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -`export` の詳細は [エクスポート](https://docs.ultralytics.com/modes/export/) ページを参照してください。 diff --git a/docs/ja/tasks/detect.md b/docs/ja/tasks/detect.md deleted file mode 100644 index 6fc6f43edf4..00000000000 --- a/docs/ja/tasks/detect.md +++ /dev/null @@ -1,184 +0,0 @@ ---- -comments: true -description: Ultralyticsの公式ドキュメント YOLOv8。モデルのトレーニング、検証、予測、そして様々なフォーマットでのモデルエクスポート方法を学ぶ。詳細なパフォーマンス統計も含む。 -keywords: YOLOv8, Ultralytics, 物体検出, 事前訓練済みモデル, トレーニング, 検証, 予測, モデルエクスポート, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# 物体検出 - -物体検出の例 - -物体検出とは、画像やビデオストリーム内の物体の位置とクラスを特定するタスクです。 - -物体検出器の出力は、画像内の物体を囲む一連のバウンディングボックスであり、各ボックスにはクラスラベルと信頼度スコアが付けられます。シーン内の関心対象を識別する必要があるが、その物体の正確な位置や形状までは必要ない場合に、物体検出が適しています。 - -

-
- -
- 視聴する: Ultralyticsの事前訓練済みYOLOv8モデルによる物体検出。 -

- -!!! Tip "ヒント" - - YOLOv8 Detectモデルは、デフォルトのYOLOv8モデル、つまり`yolov8n.pt`であり、[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)で事前訓練されています。 - -## [モデル](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -事前訓練されたYOLOv8 Detectモデルがこちらに示されます。Detect, Segment, Poseモデルは[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)データセットで、Classifyモデルは[ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)データセットで事前訓練されています。 - -[モデル](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)は、最初の使用時にUltralyticsの最新の[リリース](https://github.com/ultralytics/assets/releases)から自動的にダウンロードされます。 - -| モデル | サイズ
(ピクセル) | mAPval
50-95 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | パラメータ数
(M) | FLOPs
(B) | -|--------------------------------------------------------------------------------------|--------------------|----------------------|-----------------------------|----------------------------------|--------------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- **mAPval** の値は[COCO val2017](https://cocodataset.org)データセットにおいて、単一モデル単一スケールでのものです。 -
再現方法: `yolo val detect data=coco.yaml device=0` -- **速度** は[Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)インスタンスを使用してCOCO val画像に対して平均化されたものです。 -
再現方法: `yolo val detect data=coco128.yaml batch=1 device=0|cpu` - -## トレーニング - -YOLOv8nを画像サイズ640でCOCO128データセットに対して100エポックでトレーニングします。使用可能な引数の完全なリストについては、[設定](/../usage/cfg.md)ページをご覧ください。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードする - model = YOLO('yolov8n.yaml') # YAMLから新しいモデルを構築 - model = YOLO('yolov8n.pt') # 事前訓練済みモデルをロード(トレーニングに推奨) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAMLから構築し、重みを転送 - - # モデルをトレーニングする - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAMLから新しいモデルを作成し、ゼロからトレーニングを開始 - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # 事前訓練済みの*.ptモデルからトレーニングを開始 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # YAMLから新しいモデルを作成し、事前訓練済みの重みを転送してトレーニングを開始 - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### データセットの形式 - -YOLO検出データセットの形式の詳細は、[データセットガイド](../../../datasets/detect/index.md)に記載されています。他の形式(COCO等)からYOLO形式に既存のデータセットを変換するには、Ultralyticsの[JSON2YOLO](https://github.com/ultralytics/JSON2YOLO)ツールをご利用ください。 - -## 検証 - -トレーニングされたYOLOv8nモデルの精度をCOCO128データセットで検証します。引数は不要で、モデルはトレーニングの`data`と引数をモデル属性として保持しています。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードする - model = YOLO('yolov8n.pt') # 公式モデルをロード - model = YOLO('パス/ベスト.pt') # カスタムモデルをロード - - # モデルを検証する - metrics = model.val() # 引数不要、データセットと設定は記憶されている - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 各カテゴリのmap50-95を含むリスト - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # 公式モデルを検証 - yolo detect val model=パス/ベスト.pt # カスタムモデルを検証 - ``` - -## 予測 - -トレーニングされたYOLOv8nモデルを使用して画像の予測を実行します。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロードする - model = YOLO('yolov8n.pt') # 公式モデルをロード - model = YOLO('パス/ベスト.pt') # カスタムモデルをロード - - # モデルで予測 - results = model('https://ultralytics.com/images/bus.jpg') # 画像の予測実行 - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # 公式モデルで予測 - yolo detect predict model=パス/ベスト.pt source='https://ultralytics.com/images/bus.jpg' # カスタムモデルで予測 - ``` - -`predict`モードの詳細は、[Predict](https://docs.ultralytics.com/modes/predict/)ページで全て見ることができます。 - -## エクスポート - -YOLOv8nモデルをONNX、CoreMLなどの異なるフォーマットにエクスポートします。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n.pt') # 公式モデルをロード - model = YOLO('パス/ベスト.pt') # カスタムトレーニングモデルをロード - - # モデルをエクスポート - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # 公式モデルをエクスポート - yolo export model=パス/ベスト.pt format=onnx # カスタムトレーニングモデルをエクスポート - ``` - -YOLOv8エクスポート可能なフォーマットのテーブルは以下です。エクスポート完了後に、エクスポートされたモデルで直接予測または検証が可能です。つまり、`yolo predict model=yolov8n.onnx` です。使用例はエクスポート完了後にモデルに表示されます。 - -| フォーマット | `format`引数 | モデル | メタデータ | 引数 | -|--------------------------------------------------------------------|---------------|---------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -`export`の詳細は、[Export](https://docs.ultralytics.com/modes/export/)ページで全て見ることができます。 diff --git a/docs/ja/tasks/index.md b/docs/ja/tasks/index.md deleted file mode 100644 index bc5d3b7fe53..00000000000 --- a/docs/ja/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: YOLOv8が実行できる基本的なコンピュータービジョンタスクについて学び、検出、セグメンテーション、分類、ポーズ認識がAIプロジェクトでどのように使用されるかを理解します。 -keywords: Ultralytics, YOLOv8, 検出, セグメンテーション, 分類, ポーズ推定, AIフレームワーク, コンピュータービジョンタスク ---- - -# Ultralytics YOLOv8タスク - -
-Ultralytics YOLOがサポートするタスク - -YOLOv8は、複数のコンピュータービジョン**タスク**をサポートするAIフレームワークです。このフレームワークは、[検出](detect.md)、[セグメンテーション](segment.md)、[分類](classify.md)、及び[ポーズ](pose.md)推定を実行するために使用できます。これらのタスクはそれぞれ異なる目的と用途を持っています。 - -!!! Note "ノート" - - 🚧 当社の多言語ドキュメントは現在建設中であり、改善のために一生懸命作業を行っています。ご理解いただきありがとうございます!🙏 - -

-
- -
- 視聴する: Ultralytics YOLOタスクの探索:オブジェクト検出、セグメンテーション、トラッキング、ポーズ推定。 -

- -## [検出](detect.md) - -検出はYOLOv8がサポートする基本的なタスクです。それは画像やビデオフレーム内のオブジェクトを検出し、周囲に境界ボックスを描くことを含みます。検出されたオブジェクトはその特徴に基づいて異なるカテゴリーに分類されます。YOLOv8は一枚の画像やビデオフレームに複数のオブジェクトを高い精度と速度で検出することができます。 - -[検出例](detect.md){ .md-button } - -## [セグメンテーション](segment.md) - -セグメンテーションは、画像の内容に基づいて画像を異なる領域に分割するタスクです。各領域はその内容に基づいてラベルが割り当てられます。このタスクは、画像分割や医療画像処理などのアプリケーションにおいて有用です。YOLOv8はU-Netアーキテクチャのバリエーションを使用してセグメンテーションを実行します。 - -[セグメンテーション例](segment.md){ .md-button } - -## [分類](classify.md) - -分類は、画像を異なるカテゴリーに分類するタスクです。YOLOv8は画像の内容に基づいて画像を分類するために使用できます。それはEfficientNetアーキテクチャのバリエーションを使用して分類を実行します。 - -[分類例](classify.md){ .md-button } - -## [ポーズ](pose.md) - -ポーズ/キーポイント検出は、画像やビデオフレーム内の特定の点を検出するタスクです。これらの点はキーポイントと呼ばれ、動きやポーズ推定を追跡するために使用されます。YOLOv8は高い精度と速度で画像やビデオフレーム内のキーポイントを検出することができます。 - -[ポーズ例](pose.md){ .md-button } - -## 結論 - -YOLOv8は、検出、セグメンテーション、分類、キーポイント検出を含む複数のタスクをサポートしています。これらのタスクはそれぞれ異なる目的と用途を持っています。これらのタスクの違いを理解することにより、コンピュータービジョンアプリケーションに適切なタスクを選択することができます。 diff --git a/docs/ja/tasks/pose.md b/docs/ja/tasks/pose.md deleted file mode 100644 index 730d20f5bba..00000000000 --- a/docs/ja/tasks/pose.md +++ /dev/null @@ -1,185 +0,0 @@ ---- -comments: true -description: Ultralytics YOLOv8を使用してポーズ推定タスクを行う方法を学びます。事前トレーニング済みのモデルを見つけ、トレーニング、検証、予測、独自のエクスポートを行います。 -keywords: Ultralytics, YOLO, YOLOv8, ポーズ推定, キーポイント検出, 物体検出, 事前トレーニング済みモデル, 機械学習, 人工知能 ---- - -# ポーズ推定 - -ポーズ推定例 - -ポーズ推定は、通常キーポイントとして参照される画像内の特定の点の位置を識別するタスクです。キーポイントは、関節、ランドマーク、またはその他の特徴的な特徴など、対象物のさまざまな部分を表すことができます。キーポイントの位置は、通常2Dの `[x, y]` または3D `[x, y, visible]` 座標のセットとして表されます。 - -ポーズ推定モデルの出力は、画像内のオブジェクト上のキーポイントを表す一連の点であり、通常は各点の信頼スコアを伴います。ポーズ推定は、シーン内のオブジェクトの特定の部分と、それらが互いに対して位置する場所を特定する必要がある場合に適しています。 - -

-
- -
- 視聴: Ultralytics YOLOv8によるポーズ推定。 -

- -!!! Tip "ヒント" - - YOLOv8 _pose_ モデルは `-pose` サフィックスを使用します。例:`yolov8n-pose.pt`。これらのモデルは [COCOキーポイント](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) データセットでトレーニングされ、多様なポーズ推定タスクに適しています。 - -## [モデル](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -YOLOv8事前トレーニング済みポーズモデルはこちらです。Detect, Segment, Poseモデルは [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) データセットで、Classifyモデルは [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) データセットで事前トレーニングされています。 - -[モデル](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)は最新のUltralytics [リリース](https://github.com/ultralytics/assets/releases)から最初の使用時に自動的にダウンロードされます。 - -| モデル | サイズ
(ピクセル) | mAPポーズ
50-95 | mAPポーズ
50 | 速度
CPU ONNX
(ミリ秒) | 速度
A100 TensorRT
(ミリ秒) | パラメータ
(M) | FLOPs
(B) | -|------------------------------------------------------------------------------------------------------|--------------------|----------------------|-------------------|------------------------------|-----------------------------------|-------------------|-------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- **mAPval** の値は、[COCO Keypoints val2017](https://cocodataset.org)データセットでの単一モデル単一スケールに対するものです。 -
再現方法 `yolo val pose data=coco-pose.yaml device=0` -- **速度** は [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)インスタンスを使用したCOCO val画像の平均です。 -
再現方法 `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` - -## トレーニング - -COCO128-poseデータセットでYOLOv8-poseモデルをトレーニングします。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n-pose.yaml') # 新しいモデルをYAMLからビルド - model = YOLO('yolov8n-pose.pt') # 事前トレーニング済みのモデルをロード(トレーニング用に推奨) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # YAMLからビルドして重みを転送 - - # モデルのトレーニング - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAMLから新しいモデルをビルドし、最初からトレーニングを開始 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # 事前トレーニング済みの*.ptモデルからトレーニングを開始 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # YAMLから新しいモデルをビルド、事前トレーニング済みの重みを転送してトレーニングを開始 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### データセットフォーマット - -YOLOポーズデータセットフォーマットの詳細は、[データセットガイド](../../../datasets/pose/index.md)に記載されています。既存のデータセットを他のフォーマット(COCOなど)からYOLOフォーマットに変換するには、Ultralyticsの[JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) ツールをご使用ください。 - -## Val - -COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデルの精度を検証します。引数は必要なく、`model`にはトレーニング`data`と引数がモデル属性として保持されます。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n-pose.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムモデルをロード - - # モデルを検証 - metrics = model.val() # データセットや設定は記録されているため引数は不要 - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 各カテゴリのmap50-95が含まれるリスト - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # 公式モデルを検証 - yolo pose val model=path/to/best.pt # カスタムモデルを検証 - ``` - -## Predict - -トレーニング済みのYOLOv8n-poseモデルを使用して画像を予測します。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n-pose.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムモデルをロード - - # モデルで予測 - results = model('https://ultralytics.com/images/bus.jpg') # 画像に予測を実行 - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # 公式モデルで予測 - yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # カスタムモデルで予測 - ``` - -`predict`モードの詳細を[Predict](https://docs.ultralytics.com/modes/predict/)ページでご覧いただけます。 - -## Export - -YOLOv8n PoseモデルをONNX、CoreMLなどの異なるフォーマットにエクスポートします。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n-pose.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムトレーニング済みモデルをロード - - # モデルをエクスポート - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # 公式モデルをエクスポート - yolo export model=path/to/best.pt format=onnx # カスタムトレーニング済みモデルをエクスポート - ``` - -利用可能なYOLOv8-poseエクスポートフォーマットは以下の表に示されており、エクスポート完了後にお使いのモデルに関する使用例が示されます。 - -| フォーマット | `format`引数 | モデル | メタデータ | 引数 | -|--------------------------------------------------------------------|---------------|--------------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -`export`の詳細は[Export](https://docs.ultralytics.com/modes/export/)ページでご覧いただけます。 diff --git a/docs/ja/tasks/segment.md b/docs/ja/tasks/segment.md deleted file mode 100644 index 1d4024881d5..00000000000 --- a/docs/ja/tasks/segment.md +++ /dev/null @@ -1,186 +0,0 @@ ---- -comments: true -description: Ultralytics YOLOを使用してインスタンスセグメンテーションモデルを使いこなす方法を学びましょう。トレーニング、バリデーション、画像予測、モデルエクスポートに関する指示が含まれています。 -keywords: yolov8, インスタンスセグメンテーション, Ultralytics, COCOデータセット, 画像セグメンテーション, オブジェクト検出, モデルトレーニング, モデルバリデーション, 画像予測, モデルエクスポート ---- - -# インスタンスセグメンテーション - -インスタンスセグメンテーションの例 - -インスタンスセグメンテーションはオブジェクト検出を一歩進めており、画像内の個々のオブジェクトを識別し、それらを画像の残りの部分からセグメント化します。 - -インスタンスセグメンテーションモデルの出力は、画像内の各オブジェクトを概説するマスクまたは輪郭のセットであり、各オブジェクトにはクラスラベルと信頼スコアが含まれています。オブジェクトの位置だけでなく、その正確な形状を知る必要がある場合に、インスタンスセグメンテーションが役立ちます。 - -

-
- -
- 視聴: Pythonで事前トレーニング済みのUltralytics YOLOv8モデルでセグメンテーションを実行する。 -

- -!!! Tip "ヒント" - - YOLOv8セグメントモデルは`-seg`サフィックスを使用し、つまり`yolov8n-seg.pt`などは[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)で事前トレーニングされています。 - -## [モデル](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -ここでは、事前トレーニングされたYOLOv8セグメントモデルが示されています。Detect、Segment、Poseモデルは[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)データセットで事前トレーニングされている一方、Classifyモデルは[ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)データセットで事前トレーニングされています。 - -[モデル](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)は初回使用時に最新のUltralytics[リリース](https://github.com/ultralytics/assets/releases)から自動的にダウンロードされます。 - -| モデル | サイズ
(ピクセル) | mAPbox
50-95 | mAPmask
50-95 | スピード
CPU ONNX
(ms) | スピード
A100 TensorRT
(ms) | パラメータ
(M) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|--------------------|----------------------|-----------------------|-------------------------------|------------------------------------|-------------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- **mAPval**の値は[COCO val2017](https://cocodataset.org)データセットでの単一モデル単一スケールの値です。 -
再現するには `yolo val segment data=coco.yaml device=0` -- **スピード**は[Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)インスタンスを使用してCOCO val画像で平均化されます。 -
再現するには `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` - -## トレーニング - -COCO128-segデータセットで、画像サイズ640でYOLOv8n-segを100エポックトレーニングします。利用可能な全ての引数については、[コンフィギュレーション](/../usage/cfg.md)ページを参照してください。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n-seg.yaml') # YAMLから新しいモデルをビルド - model = YOLO('yolov8n-seg.pt') # 事前トレーニングされたモデルをロード(トレーニングに推奨) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # YAMLからビルドしウェイトを移行 - - # モデルをトレーニング - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAMLから新しいモデルをビルドしゼロからトレーニングを開始 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # 事前トレーニング済みの*.ptモデルからトレーニングを開始 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # YAMLから新しいモデルをビルドし、事前トレーニング済みウェイトを移行してトレーニングを開始 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### データセットフォーマット - -YOLOセグメンテーションデータセットのフォーマットの詳細は、[データセットガイド](../../../datasets/segment/index.md)で見つけることができます。既存のデータセットを他のフォーマット(例えばCOCOなど)からYOLOフォーマットに変換するには、Ultralyticsの[JSON2YOLO](https://github.com/ultralytics/JSON2YOLO)ツールを使用してください。 - -## 評価 - -訓練されたYOLOv8n-segモデルの精度をCOCO128-segデータセットで検証します。引数は必要ありません、なぜなら`model`はモデル属性としてトレーニング`data`と引数を保持しているからです。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n-seg.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムモデルをロード - - # モデルを評価 - metrics = model.val() # 引数は必要なし、データセットと設定は記憶している - metrics.box.map # map50-95(B) - metrics.box.map50 # map50(B) - metrics.box.map75 # map75(B) - metrics.box.maps # 各カテゴリのmap50-95(B)のリスト - metrics.seg.map # map50-95(M) - metrics.seg.map50 # map50(M) - metrics.seg.map75 # map75(M) - metrics.seg.maps # 各カテゴリのmap50-95(M)のリスト - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # 公式モデルを評価 - yolo segment val model=path/to/best.pt # カスタムモデルを評価 - ``` - -## 予測 - -訓練されたYOLOv8n-segモデルを使用して画像の予測を実行します。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n-seg.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムモデルをロード - - # モデルで予測 - results = model('https://ultralytics.com/images/bus.jpg') # 画像で予測 - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # 公式モデルで予測 - yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # カスタムモデルで予測 - ``` - -`predict`モードの完全な詳細は、[予測](https://docs.ultralytics.com/modes/predict/)ページにて確認できます。 - -## エクスポート - -YOLOv8n-segモデルをONNX、CoreMLなどの別の形式にエクスポートします。 - -!!! Example "例" - - === "Python" - - ```python - from ultralytics import YOLO - - # モデルをロード - model = YOLO('yolov8n-seg.pt') # 公式モデルをロード - model = YOLO('path/to/best.pt') # カスタムトレーニングされたモデルをロード - - # モデルをエクスポート - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # 公式モデルをエクスポート - yolo export model=path/to/best.pt format=onnx # カスタムトレーニングされたモデルをエクスポート - ``` - -ご利用可能なYOLOv8-segエクスポート形式は以下の表に示されています。エクスポートされたモデルに直接予測または評価が可能です、つまり `yolo predict model=yolov8n-seg.onnx`。エクスポートが完了した後に、モデルの使用例が表示されます。 - -| 形式 | `format`引数 | モデル | メタデータ | 引数 | -|--------------------------------------------------------------------|---------------|-------------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/ko/datasets/index.md b/docs/ko/datasets/index.md deleted file mode 100644 index d60a060522c..00000000000 --- a/docs/ko/datasets/index.md +++ /dev/null @@ -1,127 +0,0 @@ ---- -comments: true -description: Ultralytics가 지원하는 객체 탐지, 세분화, 자세 추정, 이미지 분류, 다중 객체 추적을 위한 다양한 컴퓨터 비전 데이터셋에 대한 탐색입니다. -keywords: 컴퓨터 비전, 데이터셋, Ultralytics, YOLO, 객체 탐지, 인스턴스 세분화, 자세 추정, 이미지 분류, 다중 객체 추적 ---- - -# 데이터셋 개요 - -Ultralytics는 탐지, 인스턴스 세분화, 자세 추정, 분류 및 다중 객체 추적과 같은 컴퓨터 비전 작업을 촉진하기 위해 다양한 데이터셋을 지원합니다. 아래는 주요 Ultralytics 데이터셋 목록과 각 컴퓨터 비전 작업의 요약, 그리고 해당 데이터셋입니다. - -!!! Note "노트" - - 🚧 다국어 문서 작업은 현재 진행 중이며, 우리는 이를 개선하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏 - -## [탐지 데이터셋](../../datasets/detect/index.md) - -바운딩 박스 객체 탐지는 이미지 내 객체들을 탐지하고 각 객체 주위에 바운딩 박스를 그려 객체를 위치시키는 컴퓨터 비전 기법입니다. - -- [Argoverse](../../datasets/detect/argoverse.md): 도시 환경에서의 3D 추적 및 동작 예측 데이터와 풍부한 주석이 담긴 데이터셋입니다. -- [COCO](../../datasets/detect/coco.md): 20만개가 넘는 레이블이 붙은 이미지로 설계된 객체 탐지, 세분화 및 설명을 위한 대규모 데이터셋입니다. -- [COCO8](../../datasets/detect/coco8.md): COCO train 및 COCO val에서 처음 4개의 이미지를 포함하여 신속한 테스트에 적합합니다. -- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): 전 세계에서 수집한 밀 머리 이미지로 구성된 객체 탐지 및 위치 지정 작업을 위한 데이터셋입니다. -- [Objects365](../../datasets/detect/objects365.md): 365개 객체 카테고리와 60만개가 넘는 주석이 달린 이미지를 포함하는 고품질 대규모 객체 탐지용 데이터셋입니다. -- [OpenImagesV7](../../datasets/detect/open-images-v7.md): 구글에서 제공하는 170만개의 훈련 이미지와 4만 2천개의 검증 이미지를 포함하는 포괄적인 데이터셋입니다. -- [SKU-110K](../../datasets/detect/sku-110k.md): 1만 1천 개의 이미지와 170만 개의 바운딩 박스를 특징으로 하는 소매 환경에서 밀집된 객체 탐지를 위한 데이터셋입니다. -- [VisDrone](../../datasets/detect/visdrone.md): 드론으로 촬영한 영상에서 객체 탐지 및 다중 객체 추적 데이터를 포함하는 데이터셋으로 1만 개가 넘는 이미지와 비디오 시퀀스를 포함합니다. -- [VOC](../../datasets/detect/voc.md): 객체 탐지와 세분화를 위한 파스칼 시각 객체 클래스(VOC) 데이터셋으로 20개 객체 클래스와 1만 1천 개가 넘는 이미지를 포함합니다. -- [xView](../../datasets/detect/xview.md): 상공 이미지에서 객체 탐지를 위한 데이터셋으로 60개 객체 카테고리와 100만 개가 넘는 주석이 달린 객체를 포함합니다. - -## [인스턴스 세분화 데이터셋](../../datasets/segment/index.md) - -인스턴스 세분화는 이미지 내 객체들을 픽셀 수준에서 식별하고 위치를 지정하는 컴퓨터 비전 기법입니다. - -- [COCO](../../datasets/segment/coco.md): 객체 탐지, 세분화 및 설명 작업을 위해 설계된 20만개가 넘는 레이블이 붙은 이미지로 구성된 대규모 데이터셋입니다. -- [COCO8-seg](../../datasets/segment/coco8-seg.md): 세분화 주석이 있는 8개의 COCO 이미지로 구성된 인스턴스 세분화 작업을 위한 더 작은 데이터셋입니다. - -## [자세 추정](../../datasets/pose/index.md) - -자세 추정은 카메라 또는 세계 좌표계에 대한 객체의 자세를 결정하는 기술입니다. - -- [COCO](../../datasets/pose/coco.md): 자세 추정 작업을 위해 사람의 자세 주석이 달린 대규모 데이터셋입니다. -- [COCO8-pose](../../datasets/pose/coco8-pose.md): 인간의 자세 주석이 포함된 8개의 COCO 이미지로 구성된 자세 추정 작업을 위한 더 작은 데이터셋입니다. -- [Tiger-pose](../../datasets/pose/tiger-pose.md): 자세 추정 작업을 위한 호랑이를 포함한 263개 이미지로 구성된 컴팩트한 데이터셋으로, 호랑이당 12개의 키포인트가 주석으로 표시되어 있습니다. - -## [분류](../../datasets/classify/index.md) - -이미지 분류는 이미지의 시각적 내용을 기반으로 이미지를 하나 이상의 미리 정의된 클래스나 카테고리로 분류하는 컴퓨터 비전 작업입니다. - -- [Caltech 101](../../datasets/classify/caltech101.md): 이미지 분류 작업을 위한 101개의 객체 카테고리를 포함하는 데이터셋입니다. -- [Caltech 256](../../datasets/classify/caltech256.md): Caltech 101의 확장판으로 256개의 객체 카테고리와 더 어려운 이미지를 포함합니다. -- [CIFAR-10](../../datasets/classify/cifar10.md): 각 클래스당 6천 개의 이미지를 포함하는 10개의 클래스로 구성된 60K 32x32 컬러 이미지 데이터셋입니다. -- [CIFAR-100](../../datasets/classify/cifar100.md): CIFAR-10의 확장판으로 100개의 객체 카테고리 및 클래스 당 600개 이미지를 포함합니다. -- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): 이미지 분류 작업을 위한 10개 패션 카테고리의 7만 개 그레이스케일 이미지를 포함하는 데이터셋입니다. -- [ImageNet](../../datasets/classify/imagenet.md): 객체 탐지 및 이미지 분류를 위한 1400만 개의 이미지와 2만 개의 카테고리를 포함하는 대규모 데이터셋입니다. -- [ImageNet-10](../../datasets/classify/imagenet10.md): 실험 및 테스트 속도를 높이기 위한 ImageNet의 10개 카테고리를 포함하는 더 작은 하위 집합입니다. -- [Imagenette](../../datasets/classify/imagenette.md): 훈련과 테스트를 더 빠르게 진행할 수 있도록 쉽게 구별 가능한 클래스 10개를 포함하는 ImageNet의 더 작은 하위 집합입니다. -- [Imagewoof](../../datasets/classify/imagewoof.md): 이미지 분류 작업을 위한 ImageNet의 더 어려운 하위 집합으로, 10개의 개 품종 카테고리를 포함합니다. -- [MNIST](../../datasets/classify/mnist.md): 손으로 쓴 숫자의 7만 개 그레이스케일 이미지를 포함하는 이미지 분류 작업을 위한 데이터셋입니다. - -## [지향 바운딩 박스 (OBB)](../../datasets/obb/index.md) - -지향 바운딩 박스(OBB)는 이미지 내 비스듬한 객체를 회전된 바운딩 박스를 사용하여 탐지하는 컴퓨터 비전 방법으로, 종종 항공 및 위성 영상에 적용됩니다. - -- [DOTAv2](../../datasets/obb/dota-v2.md): 170만 개 인스턴스와 1만 1천 268개 이미지를 포함하는 인기 있는 OBB 항공 이미지 데이터셋입니다. - -## [다중 객체 추적](../../datasets/track/index.md) - -다중 객체 추적은 비디오 시퀀스에서 시간에 걸쳐 여러 객체를 탐지하고 추적하는 컴퓨터 비전 기술입니다. - -- [Argoverse](../../datasets/detect/argoverse.md): 도시 환경에서의 3D 추적 및 동작 예측 데이터와 풍부한 주석으로 다중 객체 추적 작업을 위한 데이터셋입니다. -- [VisDrone](../../datasets/detect/visdrone.md): 드론으로 촬영한 영상에서 객체 탐지 및 다중 객체 추적 데이터를 포함하는 데이터셋으로 1만 개가 넘는 이미지와 비디오 시퀀스를 포함합니다. - -## 새 데이터셋 기여하기 - -새 데이터셋을 기여하는 것은 기존 인프라와 잘 조화되도록 보장하기 위해 여러 단계를 포함합니다. 아래는 필요한 단계입니다: - -### 새 데이터셋 기여를 위한 단계 - -1. **이미지 수집**: 데이터셋에 속하는 이미지를 모읍니다. 이는 공공 데이터베이스 또는 자체 수집한 자료 등 다양한 출처에서 수집할 수 있습니다. - -2. **이미지 주석 달기**: 이러한 이미지에 작업에 따라 바운딩 박스, 세그먼트 또는 키포인트로 주석을 답니다. - -3. **주석 내보내기**: 이 주석들을 Ultralytics가 지원하는 YOLO `*.txt` 파일 형식으로 변환합니다. - -4. **데이터셋 구성**: 데이터셋을 올바른 폴더 구조로 배열합니다. 'train/'과 'val/' 상위 디렉토리를 갖고 있어야 하며, 각각 'images/' 및 'labels/' 하위 디렉토리가 있어야 합니다. - - ``` - dataset/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **`data.yaml` 파일 생성**: 데이터셋의 루트 디렉토리에서 데이터셋, 클래스 및 기타 필요한 정보를 설명하는 `data.yaml` 파일을 만듭니다. - -6. **이미지 최적화 (선택)**: 처리 과정을 더 효율적으로 하기 위해 데이터셋의 크기를 줄이고자 한다면 아래의 코드를 사용하여 이미지를 최적화할 수 있습니다. 필수는 아니지만, 데이터셋 크기를 작게하고 다운로드 속도를 빠르게 하는 것이 추천됩니다. - -7. **데이터셋 압축**: 전체 데이터셋 폴더를 zip 파일로 압축합니다. - -8. **문서화 및 PR**: 데이터셋에 대한 설명과 기존 프레임워크와의 적합성에 대해 설명하는 문서화 페이지를 만든 다음, 풀 리퀘스트(PR)를 제출합니다. PR을 제출하는 더 자세한 방법에 관해서는 [Ultralytics 기여 가이드라인](https://docs.ultralytics.com/help/contributing)을 참고하십시오. - -### 데이터셋 최적화 및 압축 예제 코드 - -!!! Example "데이터셋 최적화 및 압축" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # 데이터셋 디렉토리 정의 - path = Path('path/to/dataset') - - # 데이터셋의 이미지 최적화 (선택사항) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # 'path/to/dataset.zip'으로 데이터셋 압축 - zip_directory(path) - ``` - -이 단계들을 따르면 Ultralytics의 기존 구조와 잘 통합되는 새로운 데이터셋을 기여할 수 있습니다. diff --git a/docs/ko/index.md b/docs/ko/index.md deleted file mode 100644 index b747a3dbfe0..00000000000 --- a/docs/ko/index.md +++ /dev/null @@ -1,83 +0,0 @@ ---- -comments: true -description: Ultralytics YOLOv8을 완벽하게 탐구하는 가이드로, 고속 및 정확성이 특징인 객체 탐지 및 이미지 분할 모델입니다. 설치, 예측, 훈련 튜토리얼 등이 포함되어 있습니다. -keywords: Ultralytics, YOLOv8, 객체 탐지, 이미지 분할, 기계 학습, 딥러닝, 컴퓨터 비전, YOLOv8 설치, YOLOv8 예측, YOLOv8 훈련, YOLO 역사, YOLO 라이센스 ---- - -
-

- - Ultralytics YOLO 배너 -

- Ultralytics GitHub - space - Ultralytics LinkedIn - space - Ultralytics Twitter - space - Ultralytics YouTube - space - Ultralytics TikTok - space - Ultralytics Instagram - space - Ultralytics Discord -
-
- Ultralytics CI - Ultralytics 코드 커버리지 - YOLOv8 인용 - Docker 당기기 - Discord -
- Run on Gradient - Open In Colab - Open In Kaggle -
- -Ultralytics의 최신 버전인 [YOLOv8](https://github.com/ultralytics/ultralytics)을 소개합니다. 이 모델은 딥러닝과 컴퓨터 비전의 최신 발전을 바탕으로 구축되었으며, 속도와 정확성 면에서 뛰어난 성능을 제공합니다. 간결한 설계로 인해 다양한 애플리케이션에 적합하며, 엣지 디바이스에서부터 클라우드 API에 이르기까지 다양한 하드웨어 플랫폼에 쉽게 적응 가능합니다. - -YOLOv8 문서를 탐구하여, 그 기능과 능력을 이해하고 활용할 수 있도록 돕는 종합적인 자원입니다. 기계 학습 분야에서 경험이 많건, 새롭게 시작하는 이들이건, 이 허브는 YOLOv8의 잠재력을 극대화하기 위해 설계되었습니다. - -!!! Note "노트" - - 🚧 다국어 문서는 현재 제작 중이며, 이를 개선하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏 - -## 시작하기 - -- **설치** `ultralytics`를 pip으로 설치하고 몇 분 만에 시작하세요   [:material-clock-fast: 시작하기](quickstart.md){ .md-button } -- **예측** YOLOv8로 새로운 이미지와 비디오를 감지하세요   [:octicons-image-16: 이미지에서 예측하기](modes/predict.md){ .md-button } -- **훈련** 새로운 YOLOv8 모델을 사용자의 맞춤 데이터셋으로 훈련하세요   [:fontawesome-solid-brain: 모델 훈련하기](modes/train.md){ .md-button } -- **탐험** 세분화, 분류, 자세 인식, 추적과 같은 YOLOv8 작업   [:material-magnify-expand: 작업 탐험하기](tasks/index.md){ .md-button } - -

-
- -
- 시청하기: 사용자의 맞춤 데이터셋으로 YOLOv8 모델을 훈련하는 방법을 Google Colab에서 알아보세요. -

- -## YOLO: 간단한 역사 - -[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once, 단 한 번의 검사)는 워싱턴 대학교의 Joseph Redmon과 Ali Farhadi가 개발한 인기 있는 객체 탐지 및 이미지 분할 모델입니다. 2015년에 출시된 YOLO는 그 빠른 속도와 정확성으로 인해 빠르게 인기를 얻었습니다. - -- [YOLOv2](https://arxiv.org/abs/1612.08242)는 2016년에 공개되었으며 배치 정규화, 앵커 박스, 차원 클러스터를 통합하여 원본 모델을 개선했습니다. -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf)는 2018년에 출시되어 더 효율적인 백본 네트워크, 복수 앵커 및 공간 피라미드 풀링을 사용하여 모델의 성능을 더욱 향상시켰습니다. -- [YOLOv4](https://arxiv.org/abs/2004.10934)는 2020년에 나와서 모자이크 데이터 증가, 새로운 앵커-프리 탐지 헤드, 새로운 손실 함수와 같은 혁신을 도입했습니다. -- [YOLOv5](https://github.com/ultralytics/yolov5)는 모델의 성능을 더욱 향상시키고 하이퍼파라미터 최적화, 통합 실험 추적 및 인기 있는 수출 형식으로의 자동 수출과 같은 새로운 기능을 추가했습니다. -- [YOLOv6](https://github.com/meituan/YOLOv6)는 2022년에 [Meituan](https://about.meituan.com/)에 의해 오픈 소스화되었으며, 이 회사의 자율 배달 로봇에서 사용되고 있습니다. -- [YOLOv7](https://github.com/WongKinYiu/yolov7)는 COCO 키포인트 데이터셋에서의 자세 추정과 같은 추가 작업을 추가했습니다. -- [YOLOv8](https://github.com/ultralytics/ultralytics)은 Ultralytics에서 출시한 YOLO의 최신 버전입니다. 첨단 상태 기술 모델로서, YOLOv8은 이전 버전들의 성공을 기반으로 새로운 기능과 개선 사항을 도입하여 성능, 유연성 및 효율성을 향상시켰습니다. YOLOv8은 [탐지](tasks/detect.md), [분할](tasks/segment.md), [자세 추정](tasks/pose.md), [추적](modes/track.md), [분류](tasks/classify.md)를 포함하여 다양한 비전 AI 작업을 지원합니다. 이러한 다재다능함은 사용자들이 다양한 애플리케이션과 도메인 전반에 걸쳐 YOLOv8의 능력을 활용할 수 있도록 합니다. - -## YOLO 라이센스: Ultralytics YOLO는 어떻게 라이센스가 부여되나요? - -Ultralytics는 다양한 사용 사례에 맞춰 두 가지 라이선스 옵션을 제공합니다: - -- **AGPL-3.0 라이선스**: 이 [OSI 승인](https://opensource.org/licenses/) 오픈 소스 라이선스는 학생 및 애호가에게 이상적입니다. 오픈 협력과 지식 공유를 촉진합니다. 자세한 내용은 [라이선스](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) 파일을 참조하세요. -- **기업 라이선스**: 상업적 사용을 위해 설계된 이 라이선스는 Ultralytics 소프트웨어 및 AI 모델을 상업적 제품 및 서비스에 원활하게 통합할 수 있게 하여 AGPL-3.0의 오픈 소스 요건을 우회할 수 있습니다. 상업적 제공물에 솔루션을 내장하는 시나리오에 관여하는 경우 [Ultralytics 라이선싱](https://ultralytics.com/license)을 통해 문의하시기 바랍니다. - -우리의 라이선스 전략은 오픈 소스 프로젝트에 대한 개선 사항이 커뮤니티에 되돌아가도록 보장하려는 것입니다. 우리는 오픈 소스의 원칙을 가슴 깊이 새기고 있으며, 우리의 기여가 모두에게 유용한 방식으로 활용되고 확장될 수 있도록 보장하는 것이 우리의 사명입니다.❤️ diff --git a/docs/ko/models/fast-sam.md b/docs/ko/models/fast-sam.md deleted file mode 100644 index 4480421fa45..00000000000 --- a/docs/ko/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: FastSAM은 이미지에서 실시간 객체 분할을 위한 CNN 기반 솔루션으로, 향상된 사용자 상호작용, 계산 효율성, 다양한 비전 작업에 대응할 수 있는 특징을 갖고 있습니다. -keywords: FastSAM, 머신러닝, CNN 기반 솔루션, 객체 분할, 실시간 솔루션, Ultralytics, 비전 작업, 이미지 처리, 산업 응용, 사용자 상호작용 ---- - -# Fast Segment Anything Model (FastSAM) - -Fast Segment Anything Model (FastSAM)은 Segment Anything 작업을 위한 새로운 실시간 CNN 기반 솔루션입니다. 이 작업은 다양한 사용자 상호작용 프롬프트에 따라 이미지 내의 모든 객체를 분할하는 것을 목표로 합니다. FastSAM은 계산 요구 사항을 크게 줄이면서 경쟁력 있는 성능을 유지하기 때문에 다양한 비전 작업에 실용적인 선택지가 될 수 있습니다. - -![Fast Segment Anything Model (FastSAM) 아키텍처 개요](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## 개요 - -FastSAM은 계산 리소스 요구 사항이 큰 Transformer 모델인 Segment Anything Model (SAM)의 한계를 해결하기 위해 설계되었습니다. FastSAM은 Segment Anything 작업을 두 단계로 분리한 방식을 채택합니다: 모든 인스턴스 분할과 프롬프트로 인한 영역 선택. 첫 번째 단계에서는 [YOLOv8-seg](../tasks/segment.md)를 사용하여 이미지의 모든 인스턴스의 분할 마스크를 생성합니다. 두 번째 단계에서는 프롬프트에 해당하는 관심 영역을 출력합니다. - -## 주요 특징 - -1. **실시간 솔루션**: CNN의 계산 효율성을 활용하여 FastSAM은 Segment Anything 작업에 대한 실시간 솔루션을 제공하며, 빠른 결과가 필요한 산업 응용에 가치가 있습니다. - -2. **효율성과 성능**: FastSAM은 성능 품질을 희생하지 않고 계산과 리소스 요구 사항을 크게 줄입니다. SAM과 비교해 유사한 성능을 달성하면서 계산 리소스를 크게 줄여 실시간 응용이 가능해집니다. - -3. **프롬프트 안내 분할**: FastSAM은 다양한 사용자 상호작용 프롬프트에 따라 이미지 내의 모든 객체를 분할할 수 있으므로 다양한 시나리오에서 유연성과 적응성을 제공합니다. - -4. **YOLOv8-seg 기반**: FastSAM은 [YOLOv8-seg](../tasks/segment.md)를 기반으로 한 것으로, 인스턴스 분할 브랜치가 장착된 객체 감지기입니다. 이를 통해 이미지의 모든 인스턴스의 분할 마스크를 효과적으로 생성할 수 있습니다. - -5. **벤치마크에서 경쟁 결과**: MS COCO에서의 객체 제안 작업에서 FastSAM은 [SAM](sam.md)에 비해 단일 NVIDIA RTX 3090에서 훨씬 더 빠른 속도로 높은 점수를 달성하여 효율성과 능력을 입증했습니다. - -6. **실용적인 응용**: FastSAM은 현재 방법보다 수십 배 또는 수백 배 더 빠른 속도로 여러 비전 작업의 신속한 솔루션을 제공하여 실질적인 적용 가능성을 제시합니다. - -7. **모델 압축 가능성**: FastSAM은 구조에 인공 사전을 도입하여 계산 비용을 크게 줄일 수 있는 경로를 보여주어 일반 비전 작업에 대한 대형 모델 아키텍처에 대한 새로운 가능성을 열어줍니다. - -## 사용 가능한 모델, 지원되는 작업 및 운영 모드 - -이 표는 사용 가능한 모델과 해당하는 사전 훈련 가중치, 지원하는 작업 및 [Inference](../modes/predict.md), [Validation](../modes/val.md), [Training](../modes/train.md), [Export](../modes/export.md)와 같은 다른 운영 모드에 대한 호환성을 나타내며, 지원되는 모드는 ✅ 이모지로, 지원되지 않는 모드는 ❌ 이모지로 표시됩니다. - -| 모델 유형 | 사전 훈련 가중치 | 지원되는 작업 | Inference | Validation | Training | Export | -|-----------|----------------|--------------------------------|-----------|------------|----------|--------| -| FastSAM-s | `FastSAM-s.pt` | [인스턴스 분할](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [인스턴스 분할](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## 사용 예시 - -FastSAM 모델을 Python 애플리케이션에 쉽게 통합할 수 있습니다. Ultralytics는 개발을 간소화하기 위해 사용자 친화적인 Python API 및 CLI 명령을 제공합니다. - -### 예측 사용법 - -이미지에서 객체 검출을 수행하려면 다음과 같이 `predict` 메서드를 사용합니다: - -!!! Example "예제" - - === "Python" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # 추론 소스 정의 - source = 'path/to/bus.jpg' - - # FastSAM 모델 생성 - model = FastSAM('FastSAM-s.pt') # 또는 FastSAM-x.pt - - # 이미지에 대한 추론 실행 - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # Prompt Process 객체 준비 - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # 모든 프롬프트 - ann = prompt_process.everything_prompt() - - # 바운딩 박스의 기본 모양은 [0,0,0,0]에서 [x1,y1,x2,y2]로 변경 - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # 텍스트 프롬프트 - ann = prompt_process.text_prompt(text='a photo of a dog') - - # 포인트 프롬프트 - # 기본 포인트 [[0,0]] [[x1,y1],[x2,y2]] - # 기본 포인트 레이블 [0] [1,0] 0:배경, 1:전경 - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # FastSAM 모델 로드 및 모든 것을 세분화하여 추출 - yolo segment predict model=FastSAM-s.pt source=path/to/bus.jpg imgsz=640 - ``` - -이 코드 조각은 사전 훈련된 모델을 로드하고 이미지에 대한 예측을 실행하는 간편함을 보여줍니다. - -### 검증 사용법 - -데이터셋에서 모델을 검증하는 방법은 다음과 같습니다: - -!!! Example "예제" - - === "Python" - ```python - from ultralytics import FastSAM - - # FastSAM 모델 생성 - model = FastSAM('FastSAM-s.pt') # 또는 FastSAM-x.pt - - # 모델 검증 - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # FastSAM 모델 로드 및 이미지 크기 640에서 COCO8 예제 데이터셋에 대해 유효성 검사 - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -FastSAM은 단일 클래스 객체의 감지와 분할만 지원합니다. 이는 모든 객체를 동일한 클래스로 인식하고 분할한다는 의미입니다. 따라서 데이터셋을 준비할 때 모든 객체 카테고리 ID를 0으로 변환해야 합니다. - -## FastSAM 공식 사용법 - -FastSAM은 [https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM) 저장소에서 직접 사용할 수도 있습니다. FastSAM을 사용하기 위해 수행할 일반적인 단계를 간단히 소개합니다: - -### 설치 - -1. FastSAM 저장소를 복제합니다: - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. Python 3.9로 Conda 환경을 생성하고 활성화합니다: - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. 복제한 저장소로 이동하여 필요한 패키지를 설치합니다: - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. CLIP 모델을 설치합니다: - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### 예시 사용법 - -1. [모델 체크포인트](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing)를 다운로드합니다. - -2. FastSAM을 추론하기 위해 다음과 같이 사용합니다. 예시 명령어: - - - 이미지에서 모든 것을 세분화: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - 텍스트 프롬프트를 사용하여 특정 객체를 세분화: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "the yellow dog" - ``` - - - 바운딩 박스 내의 객체를 세분화 (xywh 형식으로 상자 좌표 제공): - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - 특정 지점 근처의 객체를 세분화: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -또한, FastSAM을 [Colab 데모](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing) 또는 [HuggingFace 웹 데모](https://huggingface.co/spaces/An-619/FastSAM)에서 시각적인 경험으로 시도해 볼 수 있습니다. - -## 인용 및 감사의 말씀 - -FastSAM의 실시간 인스턴스 분할 분야에 대한 혁신적인 기여를 위해 FastSAM 저자들에게 감사의 말씀을 전합니다: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -FastSAM 원본 논문은 [arXiv](https://arxiv.org/abs/2306.12156)에서 찾을 수 있습니다. 저자들은 자신들의 작업을 공개적으로 제공하였으며, 코드베이스는 [GitHub](https://github.com/CASIA-IVA-Lab/FastSAM)에서 이용할 수 있습니다. 저자들의 노력에 감사드리며 저작물을 더 폭넓은 커뮤니티에 알리기 위한 기여를 기대합니다. diff --git a/docs/ko/models/index.md b/docs/ko/models/index.md deleted file mode 100644 index 78f43ac44bb..00000000000 --- a/docs/ko/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Ultralytics가 지원하는 다양한 YOLO 계열 모델, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR에 대해 알아보고 CLI와 Python 사용 예제를 통해 시작하세요. -keywords: Ultralytics, 문서화, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, 모델, 아키텍처, Python, CLI ---- - -# Ultralytics가 지원하는 모델들 - -Ultralytics 모델 문서에 오신 것을 환영합니다! 우리는 [객체 감지](../tasks/detect.md), [인스턴스 분할](../tasks/segment.md), [이미지 분류](../tasks/classify.md), [자세 추정](../tasks/pose.md), [다중 객체 추적](../modes/track.md)과 같은 특정 작업에 맞춰진 다양한 범위의 모델을 지원합니다. Ultralytics에 모델 아키텍처를 기여하고 싶다면, [기여 가이드](../../help/contributing.md)를 확인해 보세요. - -!!! Note "주의사항" - - 🚧 현재 다양한 언어로 된 문서 작업이 진행 중이며, 이를 개선하기 위해 열심히 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏 - -## 주요 모델들 - -다음은 지원되는 핵심 모델 목록입니다: - -1. **[YOLOv3](yolov3.md)**: Joseph Redmon에 의해 최초로 만들어진 YOLO 모델 패밀리의 세 번째 버전으로, 효율적인 실시간 객체 감지 능력으로 알려져 있습니다. -2. **[YOLOv4](yolov4.md)**: 2020년 Alexey Bochkovskiy가 발표한 YOLOv3의 다크넷 기반 업데이트 버전입니다. -3. **[YOLOv5](yolov5.md)**: Ultralytics에 의해 향상된 YOLO 아키텍처로, 이전 버전들에 비해 더 나은 성능과 속도 트레이드오프를 제공합니다. -4. **[YOLOv6](yolov6.md)**: [미투안](https://about.meituan.com/)에서 2022년에 발표하여, 회사의 자율 주행 배달 로봇에서 많이 사용되고 있습니다. -5. **[YOLOv7](yolov7.md)**: YOLOv4의 저자들에 의해 2022년에 업데이트된 YOLO 모델들입니다. -6. **[YOLOv8](yolov8.md) 새로운 🚀**: YOLO 패밀리의 최신 버전으로, 인스턴스 분할, 자세/키포인트 추정, 분류 등 향상된 기능을 제공합니다. -7. **[Segment Anything Model (SAM)](sam.md)**: 메타의 Segment Anything Model (SAM)입니다. -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**: 경희대학교에서 모바일 어플리케이션을 위해 개발한 MobileSAM입니다. -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**: 중국 과학원 자동화 연구소의 이미지 및 비디오 분석 그룹에 의해 개발된 FastSAM입니다. -10. **[YOLO-NAS](yolo-nas.md)**: YOLO Neural Architecture Search (NAS) 모델들입니다. -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)**: 바이두의 PaddlePaddle Realtime Detection Transformer (RT-DETR) 모델들입니다. - -

-
- -
- 시청하기: 몇 줄의 코드로 Ultralytics YOLO 모델을 실행하세요. -

- -## 시작하기: 사용 예제 - -이 예제는 YOLO 학습과 추론에 대한 간단한 예제를 제공합니다. 이에 대한 전체 문서는 [예측](../modes/predict.md), [학습](../modes/train.md), [검증](../modes/val.md), [내보내기](../modes/export.md) 문서 페이지에서 확인할 수 있습니다. - -아래 예제는 객체 감지를 위한 YOLOv8 [감지](../tasks/detect.md) 모델에 대한 것입니다. 추가적으로 지원되는 작업들은 [분할](../tasks/segment.md), [분류](../tasks/classify.md), [자세](../tasks/pose.md) 문서를 참조하세요. - -!!! Example "예제" - - === "Python" - - PyTorch로 사전 학습된 `*.pt` 모델들과 구성 `*.yaml` 파일들은 `YOLO()`, `SAM()`, `NAS()`, `RTDETR()` 클래스에 전달하여 파이썬에서 모델 인스턴스를 생성할 수 있습니다: - - ```python - from ultralytics import YOLO - - # COCO로 사전 학습된 YOLOv8n 모델 불러오기 - model = YOLO('yolov8n.pt') - - # 모델 정보 표시 (선택사항) - model.info() - - # COCO8 예제 데이터셋에 대해 100 에포크 동안 모델 학습 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg' 이미지에 대한 YOLOv8n 모델 추론 실행 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - 모델을 직접 실행하기 위한 CLI 명령어가 제공됩니다: - - ```bash - # COCO로 사전 학습된 YOLOv8n 모델을 불러와 COCO8 예제 데이터셋에서 100 에포크 동안 학습 - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO로 사전 학습된 YOLOv8n 모델을 불러와 'bus.jpg' 이미지에 대한 추론 실행 - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## 새로운 모델 기여하기 - -Ultralytics에 여러분의 모델을 기여하고 싶으신가요? 훌륭합니다! 우리는 항상 모델 포트폴리오를 확장하는 것에 열려 있습니다. - -1. **저장소 포크하기**: [Ultralytics GitHub 저장소](https://github.com/ultralytics/ultralytics)를 포크하여 시작합니다. - -2. **포크 복제하기**: 포크한 저장소를 로컬 기계에 복제하고 새로운 브랜치를 생성하여 작업합니다. - -3. **모델 구현하기**: 우리의 [기여 가이드](../../help/contributing.md)에 제공된 코딩 표준 및 가이드라인을 따라 모델을 추가합니다. - -4. **철저히 테스트하기**: 독립적으로뿐만 아니라 파이프라인의 일부로도 모델을 철저히 테스트해야 합니다. - -5. **풀 리퀘스트 생성하기**: 모델에 만족하게 되면, 리뷰를 위해 메인 저장소에 풀 리퀘스트를 생성합니다. - -6. **코드 리뷰 & 병합**: 리뷰 후, 여러분의 모델이 우리 기준에 부합한다면 메인 저장소에 병합됩니다. - -자세한 단계는 [기여 가이드](../../help/contributing.md)를 참조해주십시오. diff --git a/docs/ko/models/mobile-sam.md b/docs/ko/models/mobile-sam.md deleted file mode 100644 index 4e9169bdae2..00000000000 --- a/docs/ko/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: Ultralytics 프레임워크에서 MobileSAM을 다운로드하고 테스트하는 방법, MobileSAM의 구현 방식, 원본 SAM과의 비교, 모바일 애플리케이션 향상 등에 대해 자세히 알아보세요. 오늘부터 모바일 애플리케이션을 개선하세요. -keywords: MobileSAM, Ultralytics, SAM, 모바일 애플리케이션, Arxiv, GPU, API, 이미지 인코더, 마스크 디코더, 모델 다운로드, 테스트 방법 ---- - -![MobileSAM 로고](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# Mobile Segment Anything (MobileSAM) - -MobileSAM 논문은 이제 [arXiv](https://arxiv.org/pdf/2306.14289.pdf)에서 사용할 수 있습니다. - -MobileSAM을 CPU에서 실행하는 데모는 이 [데모 링크](https://huggingface.co/spaces/dhkim2810/MobileSAM)에서 확인할 수 있습니다. Mac i5 CPU에서의 성능은 약 3초입니다. Hugging Face 데모에서는 인터페이스와 낮은 성능의 CPU가 느린 응답으로 이어지지만, 여전히 효과적으로 작동합니다. - -MobileSAM은 [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything), [AnyLabeling](https://github.com/vietanhdev/anylabeling) 및 [Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D)를 비롯한 여러 프로젝트에서 구현되었습니다. - -MobileSAM은 1%의 원본 이미지로 구성된 100k 데이터셋에서 하루 이내에 단일 GPU로 학습됩니다. 이 학습을 위한 코드는 나중에 공개될 예정입니다. - -## 사용 가능한 모델, 지원되는 작업 및 작동 모드 - -이 표에서는 사용 가능한 모델과 해당 모델에 대한 사전 훈련 가중치, 지원되는 작업, [Inference](../modes/predict.md), [Validation](../modes/val.md), [Training](../modes/train.md) 및 [Export](../modes/export.md)와 같은 다양한 작동 모드의 호환성을 나타냅니다. 지원되는 모드는 ✅ 이모지로 표시되고, 지원되지 않는 모드는 ❌ 이모지로 표시됩니다. - -| 모델 유형 | 사전 훈련 가중치 | 지원되는 작업 | Inference | Validation | Training | Export | -|-----------|-----------------|------------------------------------|-----------|------------|----------|--------| -| MobileSAM | `mobile_sam.pt` | [인스턴스 세그멘테이션](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## SAM에서 MobileSAM으로의 적응 - -MobileSAM은 원본 SAM과 동일한 파이프라인을 유지하므로, 원본의 전처리, 후처리 및 모든 다른 인터페이스를 통합했습니다. 따라서 현재 원본 SAM을 사용 중인 경우, MobileSAM으로 전환하는 데 최소한의 노력이 필요합니다. - -MobileSAM은 원본 SAM과 비교 가능한 성능을 발휘하며, 이미지 인코더만 변경되었습니다. 구체적으로, 원본의 무거운 ViT-H 인코더 (632M)를 더 작은 Tiny-ViT (5M)로 대체했습니다. 단일 GPU에서 MobileSAM은 이미지 당 약 12ms의 작업 시간이 소요됩니다. 이미지 인코더에는 8ms가 소요되고, 마스크 디코더에는 4ms가 소요됩니다. - -다음 표는 ViT 기반 이미지 인코더를 비교합니다: - -| 이미지 인코더 | 원본 SAM | MobileSAM | -|---------|--------|-----------| -| 매개변수 | 611M | 5M | -| 속도 | 452ms | 8ms | - -원본 SAM과 MobileSAM은 동일한 프롬프트 가이드 마스크 디코더를 사용합니다: - -| 마스크 디코더 | 원본 SAM | MobileSAM | -|---------|--------|-----------| -| 매개변수 | 3.876M | 3.876M | -| 속도 | 4ms | 4ms | - -전체 파이프라인의 비교는 다음과 같습니다: - -| 전체 파이프라인 (인코더+디코더) | 원본 SAM | MobileSAM | -|--------------------|--------|-----------| -| 매개변수 | 615M | 9.66M | -| 속도 | 456ms | 12ms | - -MobileSAM과 원본 SAM의 성능은 포인트 및 박스를 사용한 프롬프트를 통해 확인할 수 있습니다. - -![포인트 프롬프트가 있는 이미지](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![박스 프롬프트가 있는 이미지](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -MobileSAM은 우수한 성능을 자랑하며, 현재의 FastSAM보다 약 5배 작고 7배 빠릅니다. 자세한 내용은 [MobileSAM 프로젝트 페이지](https://github.com/ChaoningZhang/MobileSAM)에서 확인할 수 있습니다. - -## Ultralytics에서 MobileSAM 테스트 - -원본 SAM과 마찬가지로, 포인트 및 박스 프롬프트 모드를 포함한 Ultralytics에서 간단한 테스트 방법을 제공합니다. - -### 모델 다운로드 - -모델을 [여기](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt)에서 다운로드할 수 있습니다. - -### 포인트 프롬프트 - -!!! Example "예제" - - === "Python" - ```python - from ultralytics import SAM - - # 모델 불러오기 - model = SAM('mobile_sam.pt') - - # 포인트 프롬프트를 기반으로 세그먼트 예측 - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### 박스 프롬프트 - -!!! Example "예제" - - === "Python" - ```python - from ultralytics import SAM - - # 모델 불러오기 - model = SAM('mobile_sam.pt') - - # 박스 프롬프트를 기반으로 세그먼트 예측 - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -`MobileSAM`과 `SAM`은 동일한 API를 사용하여 구현되었습니다. 더 많은 사용법에 대해서는 [SAM 페이지](sam.md)를 참조하세요. - -## 인용 및 감사의 글 - -MobileSAM이 연구 또는 개발에 유용하게 사용된 경우, 다음의 논문을 인용해 주시기 바랍니다: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/ko/models/rtdetr.md b/docs/ko/models/rtdetr.md deleted file mode 100644 index 904fc736f26..00000000000 --- a/docs/ko/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: 비둘기(Baidu)가 개발한 RT-DETR은 비전 트랜스포머(Vision Transformers)를 기반으로 한 실시간 객체 검출기로, 사전 훈련된 모델을 사용하여 시간지연이 없는 고성능을 제공합니다. -keywords: RT-DETR, 비둘기, 비전 트랜스포머, 객체 검출, 실시간 성능, CUDA, TensorRT, IoU-aware query selection, Ultralytics, 파이썬 API, PaddlePaddle ---- - -# 비둘기의 RT-DETR: 비전 트랜스포머 기반 실시간 객체 검출기 - -## 개요 - -비둘기(Baidu)가 개발한 Real-Time Detection Transformer(RT-DETR)은 고정밀도를 유지하면서 실시간 성능을 제공하는 첨단 엔드 투 엔드 객체 검출기입니다. 비전 트랜스포머(Vision Transformers, ViT)의 성능을 활용하여, 다중 스케일 특징을 효율적으로 처리할 수 있도록 인트라 스케일 상호 작용과 크로스 스케일 퓨전을 분리합니다. RT-DETR은 다양한 디코더 레이어를 사용하여 추론 속도를 유연하게 조정할 수 있으므로 재훈련 없이 실시간 객체 검출에 적용하기에 매우 적합합니다. 이 모델은 CUDA와 TensorRT와 같은 가속화된 백엔드에서 많은 다른 실시간 객체 검출기보다 뛰어난 성능을 발휘합니다. - -![모델 예시 이미지](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**비둘기의 RT-DETR 개요** 비둘기의 RT-DETR 모델 구조 다이어그램은 백본 네트워크의 마지막 세 단계 {S3, S4, S5}를 인코더의 입력으로 보여줍니다. 효율적인 하이브리드 인코더는 인트라스케일 특징 상호 작용(AIFI, intrascale feature interaction)과 크로스 스케일 특징 퓨전 모듈(CCFM, cross-scale feature-fusion module)을 통해 다중 스케일 특징을 이미지 특징의 시퀀스로 변환합니다. IoU-aware query selection은 디코더에 대한 초기 객체 쿼리로 작동하기 위해 일정한 수의 이미지 특징을 선택하는 데 사용됩니다. 마지막으로, 보조 예측 헤드와 함께 디코더는 객체 쿼리를 반복하여 박스와 신뢰도 점수를 최적화합니다. ([원문](https://arxiv.org/pdf/2304.08069.pdf) 참조). - -### 주요 기능 - -- **효율적인 하이브리드 인코더:** 비둘기의 RT-DETR은 다중 스케일 특징을 인트라 스케일 상호 작용과 크로스 스케일 퓨전을 분리하여 처리하는 효율적인 하이브리드 인코더를 사용합니다. 이 독특한 비전 트랜스포머 기반 디자인은 계산 비용을 줄이고 실시간 객체 검출이 가능하도록 합니다. -- **IoU-aware 쿼리 선택:** 비둘기의 RT-DETR은 IoU-aware 쿼리 선택을 사용하여 개체 쿼리 초기화를 개선합니다. 이를 통해 모델은 장면에서 가장 관련성 있는 개체에 집중하며 검출 정확도를 향상시킵니다. -- **융통성 있는 추론 속도 조정:** 비둘기의 RT-DETR은 훈련 없이 다른 디코더 레이어를 사용하여 추론 속도를 유연하게 조정할 수 있습니다. 이러한 적응성은 다양한 실시간 객체 검출 시나리오에서 실용적인 응용을 용이하게 합니다. - -## 사전 훈련된 모델 - -Ultralytics의 파이썬 API는 다양한 스케일의 사전 훈련된 PaddlePaddle RT-DETR 모델을 제공합니다: - -- RT-DETR-L: COCO val2017에서 53.0% AP, T4 GPU에서 114 FPS -- RT-DETR-X: COCO val2017에서 54.8% AP, T4 GPU에서 74 FPS - -## 사용 예시 - -이 예시는 간단한 RT-DETRR 훈련 및 추론 예시를 제공합니다. [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md), [Export](../modes/export.md) 등의 자세한 문서는 [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md), [Export](../modes/export.md) 문서 페이지를 참조하십시오. - -!!! 예시 - - === "파이썬" - - ```python - from ultralytics import RTDETR - - # COCO 사전 훈련된 RT-DETR-l 모델 로드 - model = RTDETR('rtdetr-l.pt') - - # 모델 정보 표시 (선택 사항) - model.info() - - # COCO8 예제 데이터셋에 대해 100 epoch 동안 모델 훈련 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg' 이미지에서 RT-DETR-l 모델로 추론 실행 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # COCO 사전 훈련된 RT-DETR-l 모델 로드하고 COCO8 예제 데이터셋에 대해 100 epoch 동안 훈련 - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO 사전 훈련된 RT-DETR-l 모델 로드하고 'bus.jpg' 이미지에서 추론 실행 - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## 지원되는 작업 및 모드 - -이 테이블은 각 모델의 유형, 특정 사전 훈련 가중치, 각 모델이 지원하는 작업 및 [모드](../modes/train.md), [Val](../modes/val.md), [Predict](../modes/predict.md), [Export](../modes/export.md)와 같은 다양한 모드를 나타내는 ✅ 이모지로 표시된 모드를 지원합니다. - -| 모델 유형 | 사전 훈련 가중치 | 지원되는 작업 | 추론 | 검증 | 훈련 | 출력 | -|---------------------|---------------|-----------------------------|----|----|----|----| -| RT-DETR Large | `rtdetr-l.pt` | [객체 검출](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR Extra-Large | `rtdetr-x.pt` | [객체 검출](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## 인용 및 감사의 말 - -만약 연구나 개발 작업에서 비둘기(Baidu)의 RT-DETR을 사용한다면, [원래 논문을](https://arxiv.org/abs/2304.08069) 인용해주시기 바랍니다: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -컴퓨터 비전 커뮤니티에게 귀중한 자료인 비전 트랜스포머 기반 실시간 객체 검출기인 비둘기(Baidu)의 RT-DETR을 만들고 유지하기 위해 비둘기와 [PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection) 팀에게 감사의 인사를 전합니다. - -*Keywords: RT-DETR, Transformer, ViT, 비전 트랜스포머, 비둘기 RT-DETR, PaddlePaddle, Paddle Paddle RT-DETR, 실시간 객체 검출, 비전 트랜스포머 기반 객체 검출, 사전 훈련된 PaddlePaddle RT-DETR 모델, 비둘기 RT-DETR 사용법, Ultralytics 파이썬 API* diff --git a/docs/ko/models/sam.md b/docs/ko/models/sam.md deleted file mode 100644 index 55bfe930116..00000000000 --- a/docs/ko/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: 얼트라리얼리틱스(Ultralytics)의 최첨단 이미지 세분화 모델인 Segment Anything Model(SAM)에 대해 알아보세요. 해당 모델은 실시간 이미지 세분화를 가능하게 하며, 프롬프트를 이용한 세분화, 제로샷 성능 및 사용법에 대해 알아봅니다. -keywords: 얼트라리얼리틱스, 이미지 세분화, Segment Anything Model, SAM, SA-1B 데이터셋, 실시간 성능, 제로샷 전이, 객체 감지, 이미지 분석, 머신 러닝 ---- - -# Segment Anything Model (SAM) - -Segment Anything Model(SAM) 을 어서 오세요. 이 혁신적인 모델은 프롬프트 기반의 실시간 세분화를 통해 세분화 분야에서 새로운 기준을 세웠습니다. - -## SAM 소개: Segment Anything Model의 소개 - -Segment Anything Model(SAM)은 프롬프트 기반의 세분화를 가능하게 하는 뛰어난 이미지 세분화 모델입니다. SAM은 이미지 세분석 작업에서 독창성을 보여주는 Segment Anything 이니셔티브의 핵심을 형성하고 있으며, 이미지 세분화를 위한 새로운 모델, 작업 및 데이터셋을 소개하는 혁신적인 프로젝트입니다. - -SAM의 고급설계는 모델이 기존 지식 없이도 새로운 이미지 분포 및 작업에 대응할 수 있는 기능인 제로샷 전이를 보여줍니다. 1,100만 개의 정교하게 선별된 이미지에 분포된 10억 개 이상의 마스크를 포함한 SA-1B 데이터셋으로 학습된 SAM은 많은 경우에 전적으로 감독된 학습 결과를 능가하는 인상적인 제로샷 성능을 보여줍니다. - -![데이터셋 샘플 이미지](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -새롭게 도입된 SA-1B 데이터셋에서 오버레이된 마스크를 포함한 예시 이미지입니다. SA-1B는 다양한 고해상도의 이미지를 라이선스 보호하며 사생활을 보호하고 있으며, 1,100만 개의 고품질 세분화 마스크를 가지고 있습니다. 이러한 마스크는 SAM에 의해 자동으로 주석이 달렸으며, 인간 평가 및 다양한 실험을 통해 높은 품질과 다양성을 갖추었음이 검증되었습니다. 시각화를 위해 이미지는 이미지 당 평균 100개의 마스크로 그룹화되었습니다. - -## Segment Anything Model (SAM)의 주요 기능 - -- **프롬프트 기반 세분화 작업:** SAM은 프롬프트 기반의 세분화 작업을 위해 설계되어, 공간 또는 텍스트 단서를 이용하여 개체를 식별합니다. -- **고급설계:** Segment Anything Model은 강력한 이미지 인코더, 프롬프트 인코더 및 가벼운 마스크 디코더를 사용합니다. 이 독특한 아키텍처는 유연한 프롬프팅, 실시간 마스크 계산 및 세분화 작업에서의 모호성 인식을 가능케 합니다. -- **SA-1B 데이터셋:** Segment Anything 프로젝트에서 소개된 SA-1B 데이터셋은 1,100만 개의 이미지에 10억 개 이상의 세분화 마스크를 가지고 있습니다. 이는 지금까지 가장 큰 세분화 데이터셋으로, SAM에게 다양하고 대규모의 학습 데이터를 제공합니다. -- **제로샷 성능:** SAM은 다양한 세분화 작업에서 뛰어난 제로샷 성능을 보여주므로, 프롬프트 엔지니어링의 필요성을 최소화하고 다양한 응용 프로그램에 즉시 사용할 수 있는 도구입니다. - -Segment Anything Model 및 SA-1B 데이터셋에 대한 자세한 내용은 [Segment Anything 웹사이트](https://segment-anything.com)와 연구 논문 [Segment Anything](https://arxiv.org/abs/2304.02643)을 참조해 주세요. - -## 사용 가능한 모델, 지원하는 작업 및 운영 모드 - -아래 표는 사용 가능한 모델과 해당 모델의 사전 훈련 가중치, 지원하는 작업 및 [추론](../modes/predict.md), [검증](../modes/val.md), [훈련](../modes/train.md) 및 [내보내기](../modes/export.md)와 같은 다른 운영 모드와의 호환성을 나타냅니다. 지원되는 모드는 ✅ 이모지로, 지원되지 않는 모드는 ❌ 이모지로 표시되었습니다. - -| 모델 유형 | 사전 훈련 가중치 | 지원 작업 | 추론 | 검증 | 훈련 | 내보내기 | -|-----------|------------|---------------------------------|----|----|----|------| -| SAM base | `sam_b.pt` | [인스턴스 세분화](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| SAM large | `sam_l.pt` | [인스턴스 세분화](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## SAM 사용 방법: 이미지 세분화에서의 다재다능함과 강력함 - -Segment Anything Model은 훈련 데이터를 초월하는 다양한 하위 작업에 대해서도 사용될 수 있습니다. 이에는 가장자리 검출, 객체 제안 생성, 인스턴스 세분장 및 초기 텍스트-마스크 예측 등이 포함됩니다. SAM은 프롬프팅 엔지니어링을 통해 새로운 작업 및 데이터 분포에 빠르게 적응할 수 있으므로, 이미지 세분화에 대한 다재다능하고 강력한 도구로 사용될 수 있습니다. - -### SAM 예측 예제 - -!!! Example "프롬프트를 이용한 세분화" - - 주어진 프롬프트로 이미지 세분화를 실행합니다. - - === "파이썬" - - ```python - from ultralytics import SAM - - # 모델 로드 - model = SAM('sam_b.pt') - - # 모델 정보 표시 (선택 사항) - model.info() - - # bboxes 프롬프트로 추론 실행 - model('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # points 프롬프트로 추론 실행 - model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "전체 이미지 세분화" - - 전체 이미지 세분화를 실행합니다. - - === "파이썬" - - ```python - from ultralytics import SAM - - # 모델 로드 - model = SAM('sam_b.pt') - - # 모델 정보 표시 (선택 사항) - model.info() - - # 추론 실행 - model('path/to/image.jpg') - ``` - - === "CLI" - - ```bash - # SAM 모델로 추론 실행 - yolo predict model=sam_b.pt source=path/to/image.jpg - ``` - -- 여기서 전체 이미지 세분화는 프롬프트(bboxes/points/masks)를 전달하지 않으면 실행됩니다. - -!!! Example "SAMPredictor 예제" - - 이미지를 설정하고 이미지 인코더를 여러번 실행하지 않고 여러번 프롬프트 추론을 실행할 수 있습니다. - - === "프롬프트 추론" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # SAMPredictor 생성 - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # 이미지 설정 - predictor.set_image("ultralytics/assets/zidane.jpg") # 이미지 파일로 설정 - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # np.ndarray로 설정 - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # 이미지 리셋 - predictor.reset_image() - ``` - - 추가 인수로 전체 이미지를 세분화합니다. - - === "전체 이미지 세분화" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # SAMPredictor 생성 - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # 추가 인수로 이미지 세분화 - results = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- `전체 이미지 세분화`에 대한 자세한 추가 인수는 [`Predictor/generate` 참조](../../../reference/models/sam/predict.md)를 참조하세요. - -## YOLOv8과의 SAM 비교 - -여기서는 Meta의 가장 작은 SAM 모델인 SAM-b를 얼트라리얼리틱스의 가장 작은 세분화 모델, [YOLOv8n-seg](../tasks/segment.md),과 비교합니다: - -| 모델 | 크기 | 파라미터 | 속도 (CPU) | -|------------------------------------------------|-----------------------|----------------------|------------------------| -| Meta's SAM-b | 358 MB | 94.7 M | 51096 ms/im | -| [MobileSAM](mobile-sam.md) | 40.7 MB | 10.1 M | 46122 ms/im | -| [FastSAM-s](fast-sam.md) with YOLOv8 backbone | 23.7 MB | 11.8 M | 115 ms/im | -| Ultralytics [YOLOv8n-seg](../tasks/segment.md) | **6.7 MB** (53.4배 작음) | **3.4 M** (27.9배 적음) | **59 ms/im** (866배 빠름) | - -이 비교는 모델 크기 및 속도에 대한 상당한 차이를 보여줍니다. SAM은 자동으로 세분화하는 독특한 기능을 제공하지만, 작은 크기와 높은 처리 속도로 인해 YOLOv8 세분화 모델과 직접 경쟁하지는 않습니다. - -이 테스트는 2023년 애플 M2 맥북(16GB RAM)에서 수행되었습니다. 이 테스트를 재현하려면: - -!!! Example "예제" - - === "파이썬" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # SAM-b 프로파일링 - model = SAM('sam_b.pt') - model.info() - model('ultralytics/assets') - - # MobileSAM 프로파일링 - model = SAM('mobile_sam.pt') - model.info() - model('ultralytics/assets') - - # FastSAM-s 프로파일링 - model = FastSAM('FastSAM-s.pt') - model.info() - model('ultralytics/assets') - - # YOLOv8n-seg 프로파일링 - model = YOLO('yolov8n-seg.pt') - model.info() - model('ultralytics/assets') - ``` - -## 자동 주석: 세분화 데이터셋을 위한 신속한 경로 - -자동 주석은 SAM의 핵심 기능으로, 미리 훈련된 탐지 모델을 사용하여 [세분화 데이터셋](https://docs.ultralytics.com/datasets/segment)을 생성할 수 있습니다. 이 기능을 사용하면 번거롭고 시간이 오래 걸리는 수작업 주석 작업을 건너뛰고 대량의 이미지를 신속하게 정확하게 주석을 달 수 있습니다. - -### 탐지 모델을 사용하여 세분화 데이터셋 생성하기 - -Ultralytics 프레임워크를 사용하여 미리 훈련된 탐지 및 SAM 세분화 모델과 함께 데이터셋을 자동으로 주석할 수 있습니다. 아래와 같이 `auto_annotate` 함수를 사용하세요: - -!!! Example "예제" - - === "파이썬" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="path/to/images", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| 인수 | 유형 | 설명 | 기본값 | -|------------|-----------------|-------------------------------------------------------------------|--------------| -| data | 문자열 | 주석을 달 이미지가 포함된 폴더 경로. | | -| det_model | 문자열, 선택사항 | 미리 훈련된 YOLO 탐지 모델. 기본값은 'yolov8x.pt'. | 'yolov8x.pt' | -| sam_model | 문자열, 선택사항 | 미리 훈련된 SAM 세분화 모델. 기본값은 'sam_b.pt'. | 'sam_b.pt' | -| device | 문자열, 선택사항 | 모델을 실행할 디바이스. 기본값은 빈 문자열 (CPU 또는 사용 가능한 GPU 사용). | | -| output_dir | 문자열, None, 선택사항 | 주석이 포함된 결과를 저장할 디렉토리 경로. 기본값은 'data'와 같은 디렉토리 내부의 'labels' 폴더입니다. | None | - -`auto_annotate` 함수는 이미지 경로를 입력으로 받아, 입력한 미리 훈련된 탐지와 SAM 세분화 모델, 이 함수를 실행할 디바이스 및 주석이 포함된 결과를 저장할 디렉토리 경로를 선택적으로 지정할 수 있는 기능을 제공합니다. - -미리 훈련된 모델을 사용한 자동 주석 기능을 활용하면 높은 품질의 세분화 데이터셋을 생성하는 데 소요되는 시간과 노력을 크게 줄일 수 있습니다. 이 기능은 특히 대량의 이미지 컬렉션을 다루는 연구원과 개발자에게 유용하며, 수작업 주석 대신 모델 개발과 평가에 집중할 수 있습니다. - -## 인용 및 감사의 말 - -귀하의 연구 또는 개발 작업에 SAM이 유용하게 사용된 경우, 저희 논문을 인용해 주시기 바랍니다: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -모델 개발과 알고리즘 개발을 위한 귀중한 리소스를 만들고 유지 관리하는 Meta AI에게 감사의 말씀을 드립니다. - -*keywords: Segment Anything, Segment Anything Model, SAM, Meta SAM, 이미지 세분화, 프롬프트 기반 세분화, 제로샷 성능, SA-1B 데이터셋, 고급설계, 자동 주석, 얼트라리얼리틱스, 사전 훈련 모델, SAM base, SAM large, 인스턴스 세분화, 컴퓨터 비전, 인공 지능, 머신 러닝, 데이터 주석, 세분화 마스크, 탐지 모델, YOLO 탐지 모델, bibtex, Meta AI.* diff --git a/docs/ko/models/yolo-nas.md b/docs/ko/models/yolo-nas.md deleted file mode 100644 index 8ca6988ed86..00000000000 --- a/docs/ko/models/yolo-nas.md +++ /dev/null @@ -1,119 +0,0 @@ ---- -comments: true -description: YOLO-NAS는 우수한 물체 감지 모델로서 자세한 설명서를 탐색해보세요. Ultralytics Python API를 사용한 기능, 사전 훈련된 모델, 사용법 등을 자세히 알아보세요. -keywords: YOLO-NAS, Deci AI, 물체 감지, 딥러닝, 신경 아키텍처 검색, Ultralytics Python API, YOLO 모델, 사전 훈련된 모델, 양자화, 최적화, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## 개요 - -Deci AI에서 개발한 YOLO-NAS는 원래의 YOLO 모델의 한계를 해결하기 위해 고도의 신경 아키텍처 검색(Neural Architecture Search) 기술로 만들어진 혁신적인 물체 감지 기반 모델입니다. 양자화 지원과 정확성-지연 트레이드오프의 중요한 개선을 통해 YOLO-NAS는 물체 감지 분야에서 주목할 만한 성능 향상을 제공합니다. - -![모델 예시 이미지](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**YOLO-NAS 개요.** YOLO-NAS는 양자화 관련 블록과 선택적 양자화를 적용하여 최적의 성능을 달성합니다. 모델은 INT8 양자화 버전으로 변환될 때 최소한의 정확도 감소를 경험하므로 다른 모델들과 비교했을 때 상당한 개선을 이끌어냅니다. 이러한 혁신은 예측할 수 없는 물체 감지 능력과 높은 성능을 가진 우수한 아키텍처로 이어집니다. - -### 주요 기능 - -- **양자화 친화적인 기본 블록**: YOLO-NAS는 이전 YOLO 모델의 한계 중 하나인 양자화에 적합한 새로운 기본 블록을 도입합니다. -- **정교한 훈련과 양자화**: YOLO-NAS는 고급 훈련 방식과 훈련 후 양자화를 활용하여 성능을 향상시킵니다. -- **AutoNAC 최적화와 사전 훈련**: YOLO-NAS는 AutoNAC 최적화를 활용하며 COCO, Objects365, Roboflow 100과 같은 유명한 데이터셋에서 사전 훈련됩니다. 이를 통해 YOLO-NAS는 본격적인 프로덕션 환경에서의 물체 감지 작업에 매우 적합합니다. - -## 사전 훈련된 모델 - -Ultralytics가 제공하는 사전 훈련된 YOLO-NAS 모델로 다음 세대의 물체 감지 기술의 힘을 체험해 보세요. 이러한 모델은 속도와 정확성 측면에서 최고의 성능을 제공하기 위해 설계되었습니다. 특정 요구에 맞게 다양한 옵션 중 선택하세요: - -| 모델 | mAP | 지연 시간 (밀리초) | -|------------------|-------|-------------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -각 모델 변형은 평균 평균 정밀도(mAP)와 지연 시간 간의 균형을 제공하여 물체 감지 작업을 성능과 속도 모두 최적화할 수 있도록 합니다. - -## 사용 예시 - -Ultralytics는 YOLO-NAS 모델을 `ultralytics` Python 패키지를 통해 Python 애플리케이션에 쉽게 통합할 수 있도록 지원합니다. 이 패키지는 프로세스를 간소화하기 위한 사용자 친화적인 Python API를 제공합니다. - -다음 예시에서는 추론과 유효성 검사를 위해 `ultralytics` 패키지와 함께 YOLO-NAS 모델을 사용하는 방법을 보여줍니다: - -### 추론과 유효성 검사 예시 - -이 예시에서는 COCO8 데이터셋에서 YOLO-NAS-s 모델을 유효성 검사합니다. - -!!! Example "예제" - - 이 예시에서는 YOLO-NAS를 위한 간단한 추론 및 유효성 검사 코드를 제공합니다. 추론 결과를 처리하기 위한 방법은 [예측](../modes/predict.md) 모드를 참조하세요. 추가 모드에서 YOLO-NAS를 사용하는 방법은 [Val](../modes/val.md) 및 [Export](../modes/export.md)를 참조하세요. `ultralytics` 패키지에서 YOLO-NAS의 훈련은 지원하지 않습니다. - - === "Python" - - PyTorch 사전 훈련된 `*.pt` 모델 파일을 `NAS()` 클래스에 전달하여 Python에서 모델 인스턴스를 생성할 수 있습니다: - - ```python - from ultralytics import NAS - - # COCO 사전 훈련된 YOLO-NAS-s 모델 로드 - model = NAS('yolo_nas_s.pt') - - # 모델 정보 표시 (선택 사항) - model.info() - - # COCO8 예제 데이터셋에서 모델 유효성 검사 - results = model.val(data='coco8.yaml') - - # YOLO-NAS-s 모델로 'bus.jpg' 이미지에 추론 실행 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI 명령을 사용하여 모델을 직접 실행할 수 있습니다: - - ```bash - # COCO 사전 훈련된 YOLO-NAS-s 모델로 COCO8 예제 데이터셋의 성능 유효성 검사 - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # COCO 사전 훈련된 YOLO-NAS-s 모델로 'bus.jpg' 이미지에 추론 실행 - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## 지원되는 작업 및 모드 - -YOLO-NAS 모델은 Small (s), Medium (m) 및 Large (l) 세 가지 변형이 있습니다. 각 변형은 다른 계산 및 성능 요구 사항을 충족시키기 위해 설계되었습니다: - -- **YOLO-NAS-s**: 계산 자원이 제한되고 효율성이 중요한 환경에 최적화되었습니다. -- **YOLO-NAS-m**: 더 높은 정확성을 가지는 일반적인 물체 감지 작업에 적합한 균형잡힌 모델입니다. -- **YOLO-NAS-l**: 계산 자원이 제한되지 않는 환경에서 가장 높은 정확성이 필요한 시나리오에 맞게 설계되었습니다. - -아래는 각 모델에 대한 자세한 개요로, 사전 훈련된 가중치, 지원하는 작업, 다양한 작동 모드와의 호환성에 대한 링크가 제공됩니다. - -| 모델 유형 | 사전 훈련된 가중치 | 지원되는 작업 | 추론 | 유효성 검사 | 훈련 | 내보내기 | -|------------|-----------------------------------------------------------------------------------------------|-----------------------------|----|--------|----|------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [물체 감지](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [물체 감지](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [물체 감지](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## 인용 및 감사의 말씀 - -YOLO-NAS를 연구 또는 개발 작업에 활용한 경우 SuperGradients를 인용해 주세요. - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -Deci AI의 [SuperGradients](https://github.com/Deci-AI/super-gradients/) 팀에게 컴퓨터 비전 커뮤니티를 위해 이 가치 있는 자료를 만들고 유지 관리한 데 대해 감사의 말씀을 전합니다. 혁신적인 아키텍처와 우수한 물체 감지 능력을 갖춘 YOLO-NAS가 개발자와 연구자에게 중요한 도구가 될 것으로 기대합니다. diff --git a/docs/ko/models/yolov3.md b/docs/ko/models/yolov3.md deleted file mode 100644 index 103896fa191..00000000000 --- a/docs/ko/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: YOLOv3, YOLOv3-Ultralytics 및 YOLOv3u에 대한 개요를 얻으세요. 물체 탐지를 위한 주요 기능, 사용법 및 지원 작업에 대해 알아보세요. -keywords: YOLOv3, YOLOv3-Ultralytics, YOLOv3u, 물체 탐지, 추론, 훈련, Ultralytics ---- - -# YOLOv3, YOLOv3-Ultralytics 및 YOLOv3u - -## 개요 - -이 문서는 세 가지 밀접하게 관련된 물체 탐지 모델인 [YOLOv3](https://pjreddie.com/darknet/yolo/), [YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3) 및 [YOLOv3u](https://github.com/ultralytics/ultralytics)에 대한 개요를 제공합니다. - -1. **YOLOv3:** 이것은 You Only Look Once (YOLO) 물체 탐지 알고리즘의 세 번째 버전입니다. Joseph Redmon이 처음 개발한 YOLOv3는 다중 스케일 예측 및 세 가지 다른 크기의 탐지 커널과 같은 기능을 도입하여 이전 모델보다 향상됐습니다. - -2. **YOLOv3-Ultralytics:** 이것은 Ultralytics의 YOLOv3 모델 구현입니다. 이 모델은 원본 YOLOv3 아키텍처를 복제하며 더 많은 사전 훈련 모델 및 쉬운 사용자 정의 옵션과 같은 추가 기능을 제공합니다. - -3. **YOLOv3u:** 이것은 YOLOv8 모델에서 사용되는 앵커 없이 물체 없음 분리 헤드를 통합한 YOLOv3-Ultralytics의 업데이트된 버전입니다. YOLOv3u는 YOLOv3와 동일한 백본 및 네크 아키텍처를 유지하지만 YOLOv8에서 업데이트된 탐지 헤드를 사용합니다. - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## 주요 기능 - -- **YOLOv3:** 이 모델은 탐지를 위해 13x13, 26x26 및 52x52의 세 가지 다른 크기의 탐지 커널을 활용하는 세 가지 다른 스케일을 도입했습니다. 이는 다양한 크기의 객체에 대한 탐지 정확도를 크게 향상시켰습니다. 또한 YOLOv3은 각 경계 상자에 대한 다중 레이블 예측과 더 나은 특징 추출기 네트워크와 같은 기능을 추가했습니다. - -- **YOLOv3-Ultralytics:** Ultralytics의 YOLOv3 구현은 원본 모델과 동일한 성능을 제공하지만 더 많은 사전 훈련 모델, 추가적인 훈련 방법 및 쉬운 사용자 정의 옵션을 제공합니다. 이로써 실제 응용 분야에 대해 더 다양하고 사용자 친화적인 모델이 됩니다. - -- **YOLOv3u:** 이 업데이트된 모델은 YOLOv8의 앵커 없음, 물체 없는 분리 헤드를 통합합니다. 미리 정의된 앵커 박스 및 물체 점수가 필요 없어진 이 탐지 헤드 설계는 다양한 크기와 모양의 객체를 탐지하는 능력을 향상시킬 수 있습니다. 이로써 YOLOv3u는 물체 탐지 작업에 대해 더 견고하고 정확한 모델이 됩니다. - -## 지원되는 작업 및 모드 - -YOLOv3, YOLOv3-Ultralytics 및 YOLOv3u 시리즈는 물체 탐지 작업을 위해 특별히 설계되었습니다. 이러한 모델은 정확성과 속도를 균형있게 유지하여 다양한 실제 시나리오에서 효과적으로 사용될 수 있습니다. 각 버전은 독특한 기능과 최적화를 제공하여 다양한 응용 분야에 적합합니다. - -세 가지 모델은 [추론](../modes/predict.md), [유효성 검사](../modes/val.md), [훈련](../modes/train.md) 및 [내보내기](../modes/export.md)와 같은 포괄적인 모드를 지원하여 효과적인 물체 탐지를 위한 완벽한 도구 세트를 제공합니다. - -| 모델 유형 | 지원되는 작업 | 추론 | 유효성 검사 | 훈련 | 내보내기 | -|--------------------|-----------------------------|----|--------|----|------| -| YOLOv3 | [물체 탐지](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [물체 탐지](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [물체 탐지](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -이 표는 각 YOLOv3 버전의 기능을 한 눈에 보여주며, 물체 탐지 워크플로우의 다양한 작업 및 운영 모드에 대해 다양성과 적합성을 강조합니다. - -## 사용 예제 - -다음 예제는 간단한 YOLOv3 훈련 및 추론 예제를 제공합니다. 이와 다른 [모드](../modes/index.md)의 전체 설명은 [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) 및 [Export](../modes/export.md) 문서 페이지를 참조하세요. - -!!! Example "예제" - - === "Python" - - Python에서 PyTorch 사전 훈련된 `*.pt` 모델 및 설정 `*.yaml` 파일을 YOLO() 클래스에 전달하여 모델 인스턴스를 만들 수 있습니다. - - ```python - from ultralytics import YOLO - - # COCO 사전 훈련된 YOLOv3n 모델 로드 - model = YOLO('yolov3n.pt') - - # 모델 정보 표시 (선택 사항) - model.info() - - # COCO8 예제 데이터셋에서 100 epoch 동안 모델 훈련 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # YOLOv3n 모델로 'bus.jpg' 이미지에 추론 실행 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI 명령어를 사용하여 모델을 직접 실행할 수 있습니다. - - ```bash - # COCO 사전 훈련된 YOLOv3n 모델 로드하고 COCO8 예제 데이터셋에서 100 epoch 동안 훈련 - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO 사전 훈련된 YOLOv3n 모델 로드하고 'bus.jpg' 이미지에 추론 실행 - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## 인용 및 감사의 글 - -본인의 연구에서 YOLOv3를 사용한다면, 원본 YOLO 논문과 Ultralytics YOLOv3 저장소를 인용해 주십시오. - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -Joseph Redmon과 Ali Farhadi에게 원본 YOLOv3 개발에 대한 감사의 글을 전합니다. diff --git a/docs/ko/models/yolov4.md b/docs/ko/models/yolov4.md deleted file mode 100644 index 568d2c1b63a..00000000000 --- a/docs/ko/models/yolov4.md +++ /dev/null @@ -1,71 +0,0 @@ ---- -comments: true -description: YOLOv4에 대한 상세 가이드를 살펴보세요. 최신 실시간 객체 감지기의 아키텍처 하이라이트, 혁신적인 기능 및 응용 예제를 이해하세요. -keywords: ultralytics, YOLOv4, 객체 감지, 신경망, 실시간 감지, 객체 감지기, 기계 학습 ---- - -# YOLOv4: 높은 속도와 정밀도를 갖는 객체 감지 - -Ultralytics YOLOv4 문서 페이지에 오신 것을 환영합니다. YOLOv4는 아키텍처 및 알고리즘 개선으로 실시간 객체 감지의 최적 속도와 정확도를 제공하는 최신 객체 감지기입니다. 2020년에 Alexey Bochkovskiy가 [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet)에서 출시되었습니다. YOLOv4는 많은 응용 분야에서 우수한 선택입니다. - -![YOLOv4 아키텍처 다이어그램](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**YOLOv4 아키텍처 다이어그램**. YOLOv4의 복잡한 네트워크 설계를 보여줍니다. 최적의 실시간 객체 감지를 위해 백본, 넥 및 헤드 구성 요소와 이들의 상호 연결된 레이어가 포함되어 있습니다. - -## 소개 - -YOLOv4는 You Only Look Once의 4번째 버전을 의미합니다. 이전 YOLO 버전인 [YOLOv3](yolov3.md) 및 기타 객체 감지 모델의 한계를 극복하기 위해 개발된 실시간 객체 감지 모델입니다. 다른 합성곱 신경망(Convolutional Neural Network, CNN) 기반 객체 감지기와는 달리 YOLOv4는 추천 시스템뿐만 아니라 독립적인 프로세스 관리 및 인적 감소에도 적용할 수 있습니다. 이는 일반적인 그래픽 처리 장치(Graphics Processing Unit, GPU)에서 작동함으로써 저렴한 가격에 대량 사용을 가능하게 합니다. 또한, 훈련을 위해 하나의 GPU만 필요합니다. - -## 아키텍처 - -YOLOv4는 성능을 최적화하기 위해 여러 혁신적인 기능을 사용합니다. 이에는 Weighted-Residual-Connections (WRC), Cross-Stage-Partial-connections (CSP), Cross mini-Batch Normalization (CmBN), Self-adversarial-training (SAT), Mish-activation, Mosaic data augmentation, DropBlock regularization 및 CIoU loss가 포함됩니다. 이러한 기능들은 최첨단 결과를 달성하기 위해 결합되었습니다. - -일반적인 객체 감지기는 입력, 백본, 넥 및 헤드와 같은 여러 부분으로 구성됩니다. YOLOv4의 백본은 ImageNet에서 사전 훈련되며, 객체의 클래스 및 경계 상자를 예측하는 데 사용됩니다. 백본은 VGG, ResNet, ResNeXt 또는 DenseNet과 같은 여러 모델에서 가져올 수 있습니다. 객체 감지기의 넥 부분은 다양한 단계에서 피처 맵을 수집하는 데 사용되며, 일반적으로 여러 하향 경로 및 여러 상향 경로를 포함합니다. 헤드 부분은 최종 객체 감지 및 분류에 사용됩니다. - -## 베고 오브 프리비스 - -YOLOv4는 학습 중 모델의 정확성을 향상시키는 기법인 "베고 오브 프리비스"를 사용하기도 합니다. 데이터 증강은 객체 감지에서 주로 사용되는 베고 오브 프리비스 기법으로, 입력 이미지의 다양성을 높여 모델의 견고성을 향상시킵니다. 데이터 증강의 몇 가지 예는 화질 왜곡(이미지의 밝기, 대조도, 색상, 채도 및 노이즈 조정) 및 기하학적 왜곡(임의의 스케일링, 크롭, 뒤집기, 회전 추가)입니다. 이러한 기술은 모델이 다양한 유형의 이미지에 대해 더 잘 일반화되도록 돕습니다. - -## 기능 및 성능 - -YOLOv4는 객체 감지의 최적 속도와 정확도를 위해 설계되었습니다. YOLOv4의 아키텍처에는 백본으로 CSPDarknet53, 넥으로 PANet, 감지 헤드로 YOLOv3가 포함되어 있습니다. 이 설계를 통해 YOLOv4는 뛰어난 속도로 객체 감지를 수행하며, 실시간 응용 프로그램에 적합합니다. YOLOv4는 객체 감지 벤치마크에서 최첨단 결과를 달성하고 정확도 면에서도 뛰어난 성능을 보입니다. - -## 사용 예제 - -작성 시점 기준으로 Ultralytics는 현재 YOLOv4 모델을 지원하지 않습니다. 따라서 YOLOv4를 사용하려는 사용자는 YOLOv4 GitHub 저장소의 설치 및 사용 지침을 직접 참조해야 합니다. - -다음은 YOLOv4를 사용하는 일반적인 단계에 대한 간략한 개요입니다: - -1. YOLOv4 GitHub 저장소를 방문하세요: [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). - -2. 설치에 대한 README 파일에 제공된 지침을 따르세요. 일반적으로 저장소를 클론하고 필요한 종속성을 설치하고 필요한 환경 변수를 설정하는 과정을 포함합니다. - -3. 설치가 완료되면, 저장소에서 제공하는 사용 지침에 따라 모델을 훈련하고 사용할 수 있습니다. 이는 일반적으로 데이터셋을 준비하고 모델 매개변수를 설정하고 모델을 훈련한 다음 훈련된 모델을 사용하여 객체 감지를 수행하는 것을 포함합니다. - -특정 단계는 사용 사례와 YOLOv4 저장소의 현재 상태에 따라 다를 수 있습니다. 따라서 YOLOv4 GitHub 저장소에서 제공되는 지침을 직접 참조하는 것이 강력히 권장됩니다. - -YOLOv4의 지원이 구현되면 Ultralytics를 위한 사용 예제로 이 문서를 업데이트하기 위해 노력하겠습니다. - -## 결론 - -YOLOv4는 속도와 정확도의 균형을 이루는 강력하고 효율적인 객체 감지 모델입니다. 학습 중 특정 기법 및 베고 오브 프리비스 기법의 사용으로 실시간 객체 감지 작업에서 탁월한 성능을 발휘합니다. 일반적인 GPU를 가진 사용자 누구나 사용하고 훈련할 수 있어 다양한 응용 분야에 접근 가능하고 실용적입니다. - -## 인용 및 감사의 글 - -실시간 객체 감지 분야에서 중요한 기여를 한 YOLOv4 저자들에게 감사드립니다: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -원본 YOLOv4 논문은 [arXiv](https://arxiv.org/abs/2004.10934)에서 확인할 수 있습니다. 저자들은 자신들의 작업을 일반에 공개하고 코드베이스는 [GitHub](https://github.com/AlexeyAB/darknet)에서 액세스할 수 있도록 했습니다. 저자들의 노력과 널리 알려진 커뮤니티에 작업을 제공해 준 사항을 감사히 여깁니다. diff --git a/docs/ko/models/yolov5.md b/docs/ko/models/yolov5.md deleted file mode 100644 index da689f22b75..00000000000 --- a/docs/ko/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: YOLOv5u는 YOLOv5 모델의 개선된 정확도-속도 절충 모델로, 다양한 객체 감지 작업에 대한 사전 훈련된 모델을 제공합니다. -keywords: YOLOv5u, 객체 감지, 사전 훈련된 모델, Ultralytics, 추론, 검증, YOLOv5, YOLOv8, 앵커 없음, 객체 여부 없음, 실시간 응용, 머신 러닝 ---- - -# YOLOv5 - -## 개요 - -YOLOv5u는 객체 감지 기법에서의 진보를 나타냅니다. Ultralytics에서 개발한 [YOLOv5](https://github.com/ultralytics/yolov5) 모델의 기본 아키텍처를 기반으로 한 YOLOv5u는 [YOLOv8](yolov8.md) 모델에서 도입된 앵커 없음, 객체 여부 없음 분리 헤드(head) 기능을 통합합니다. 이러한 적응으로 인해 모델의 아키텍처가 개선되어, 객체 감지 작업의 정확도와 속도 절충을 더욱 향상시킵니다. 경험적 결과와 해당 기능을 고려할 때, YOLOv5u는 연구 및 실제 응용 모두에서 견고한 솔루션을 찾고 있는 사용자들에게 효율적인 대안을 제공합니다. - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## 주요 기능 - -- **앵커 없는 분리 Ultralytics 헤드:** 기존의 객체 감지 모델은 사전 정의된 앵커 박스를 사용하여 객체의 위치를 예측합니다. 그러나 YOLOv5u는 이 방식을 현대화합니다. 앵커 없는 분리 Ultralytics 헤드를 도입함으로써 더욱 유연하고 적응적인 감지 메커니즘을 보장하여 다양한 시나리오에서 성능을 향상시킵니다. - -- **정확도-속도 절충의 최적화:** 속도와 정확도는 종종 상충하는 관계에 있습니다. 그러나 YOLOv5u는 이러한 절충을 도전합니다. 실시간 탐지를 보장하면서도 정확도를 희생하지 않는 균형을 제시합니다. 이 기능은 자율주행 차량, 로봇 공학, 실시간 비디오 분석 등 신속한 응답을 요구하는 응용 프로그램에서 특히 중요합니다. - -- **다양한 사전 훈련된 모델:** 다른 작업에는 다른 도구 세트가 필요하다는 것을 이해하는 YOLOv5u는 다양한 사전 훈련된 모델을 제공합니다. 추론, 검증 또는 훈련에 집중하고 있는지 여부에 관계없이 맞춤형 모델이 기다리고 있습니다. 이 다양성은 일반적인 솔루션이 아닌 독특한 도전 과제에 대해 특별히 세밀하게 조정된 모델을 사용하고 있다는 것을 보장합니다. - -## 지원되는 작업 및 모드 - -разнобойacionales of YOLOv5u 모델은 다양한 사전 훈련된 가중치로 [객체 감지](../tasks/detect.md) 작업에서 뛰어난 성능을 발휘합니다. 이들은 개발부터 배포까지 다양한 응용 프로그램에 적합한 다양한 모드를 지원합니다. - -| 모델 유형 | 사전 훈련된 가중치 | 작업 | 추론 | 검증 | 훈련 | 내보내기 | -|---------|-----------------------------------------------------------------------------------------------------------------------------|-----------------------------|----|----|----|------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [객체 감지](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -이 표는 YOLOv5u 모델의 다양한 변형을 상세히 보여주며, 객체 감지 작업에서의 적용 가능성과 [추론](../modes/predict.md), [검증](../modes/val.md), [훈련](../modes/train.md), [내보내기](../modes/export.md)와 같은 다양한 작업 모드의 지원을 강조합니다. 이러한 포괄적인 지원을 통해 사용자는 다양한 객체 감지 시나리오에서 YOLOv5u 모델의 기능을 완전히 활용할 수 있습니다. - -## 성능 지표 - -!!! 성능 - - === "감지" - - [COCO](https://docs.ultralytics.com/datasets/detect/coco/)에서 학습된 이러한 모델을 사용한 사용 예제는 [감지 문서](https://docs.ultralytics.com/tasks/detect/)를 참조하세요. 이 문서에는 80개의 사전 훈련된 클래스를 포함합니다. - - | 모델 | YAML | 크기
(픽셀) | mAPval
50-95 | 속도
CPU ONNX
(ms) | 속도
A100 TensorRT
(ms) | 매개변수
(M) | FLOPs
(B) | - |---------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|-----------------------|----------------------|--------------------------------|-------------------------------------|--------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43.0 | 120.7 | 1.27 | 9.1 | 24.0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49.0 | 233.9 | 1.86 | 25.1 | 64.2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52.2 | 408.4 | 2.50 | 53.2 | 135.0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53.2 | 763.2 | 3.81 | 97.2 | 246.4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42.1 | 211.0 | 1.83 | 4.3 | 7.8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48.6 | 422.6 | 2.34 | 15.3 | 24.6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53.6 | 810.9 | 4.36 | 41.2 | 65.7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55.7 | 1470.9 | 5.47 | 86.1 | 137.4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56.8 | 2436.5 | 8.98 | 155.4 | 250.7 | - -## 사용 예제 - -이 예제는 간단한 YOLOv5 훈련 및 추론 예제를 제공합니다. 이와 기타 [모드](../modes/index.md)의 자세한 설명은 [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) 및 [Export](../modes/export.md) 문서 페이지를 참조하세요. - -!!! Example "예제" - - === "Python" - - Python에서 `YOLO()` 클래스로 `*.pt` 사전 훈련된 모델과 구성 `*.yaml` 파일을 전달하여 모델 인스턴스를 만들 수 있습니다. - - ```python - from ultralytics import YOLO - - # COCO 사전 훈련된 YOLOv5n 모델 로드 - model = YOLO('yolov5n.pt') - - # 모델 정보 표시 (선택 사항) - model.info() - - # COCO8 예제 데이터셋을 사용하여 모델을 100번 에포크로 훈련 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg' 이미지에 대해 YOLOv5n 모델로 추론 실행 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI 명령을 사용하여 모델을 직접 실행할 수 있습니다. - - ```bash - # COCO 사전 훈련된 YOLOv5n 모델 로드 및 COCO8 예제 데이터셋을 사용하여 모델을 100번 에포크로 훈련 - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO 사전 훈련된 YOLOv5n 모델 로드 및 'bus.jpg' 이미지에서 추론 실행 - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## 인용 및 감사의 글 - -연구에서 YOLOv5 또는 YOLOv5u를 사용하는 경우 Ultralytics YOLOv5 리포지토리를 다음과 같이 인용하세요. - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -YOLOv5 모델은 [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) 및 [Enterprise](https://ultralytics.com/license) 라이선스로 제공됩니다. diff --git a/docs/ko/models/yolov6.md b/docs/ko/models/yolov6.md deleted file mode 100644 index a28ee861a22..00000000000 --- a/docs/ko/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: 최첨단 물체 감지(오브젝트 디텍션) 모델인 'Meituan YOLOv6'을 알아보세요. 속도와 정확도 사이의 균형을 유지하는 이 모델은 실시간 애플리케이션에 인기 있는 선택입니다. 이 모델은 BiC(Bi-directional Concatenation) 모듈, AAT(Anchor-Aided Training) 전략, COCO 데이터셋에서 최첨단 정확도를 실현하기 위한 개선된 백본(backbone) 및 네크(neck) 설계 등에 대한 여러 주목할만한 향상 사항을 도입하고 있습니다. -keywords: Meituan YOLOv6, 오브젝트 디텍션, Ultralytics, YOLOv6 문서, Bi-directional Concatenation, Anchor-Aided Training, 사전 훈련 모델, 실시간 애플리케이션 ---- - -# Meituan YOLOv6 - -## 개요 - -[Meituan](https://about.meituan.com/) YOLOv6은 속도와 정확도 사이에서 현저한 균형을 제공하는 최첨단 물체 감지기입니다. 이 모델은 Bi-directional Concatenation(BiC) 모듈, Anchor-Aided Training(AAT) 전략, 그리고 COCO 데이터셋에서 최첨단 정확도를 실현하기 위한 개선된 백본(backbone) 및 네크(neck) 디자인 등, 아키텍처와 훈련 방식에 대한 여러 주목할만한 향상 사항을 제공합니다. - -![Meituan YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![모델 예시 이미지](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**YOLOv6 개요**. 아키텍처 다이어그램으로, 다시 설계된 네트워크 구성 요소와 훈련 전략이 중요한 성능 개선을 이끈 모습을 보여줍니다. (a) YOLOv6의 네크(neck) (N과 S 표시)입니다. M/L의 경우, RepBlocks은 CSPStackRep으로 대체됩니다. (b) BiC 모듈의 구조입니다. (c) SimCSPSPPF 블록입니다. ([출처](https://arxiv.org/pdf/2301.05586.pdf)). - -### 주요 특징 - -- **Bi-directional Concatenation (BiC) 모듈**: YOLOv6은 감지기(neck)에 BiC 모듈을 도입하여 위치 신호(localization signals)를 강화하고 성능을 향상시키는데, 속도 저하가 거의 없습니다. -- **Anchor-Aided Training (AAT) 전략**: 이 모델은 추론 효율을 저하시키지 않고 앵커 기반(anchor-based)과 앵커 없음(anchor-free) 패러다임의 이점을 모두 누릴 수 있도록 AAT를 제안합니다. -- **개선된 백본 및 네크 디자인**: YOLOv6을 백본과 네크에 추가적인 단계를 포함하여 깊게 만들어 COCO 데이터셋에서 최첨단 성능을 달성합니다. -- **셀프 디스틸레이션 전략**: YOLOv6의 작은 모델 성능을 강화하기 위해 새로운 셀프 디스틸레이션 전략이 도입되었습니다. 이는 훈련 중 보조 회귀 브랜치를 강화하고 추론 중에는 이를 제거하여 성능 저하를 방지합니다. - -## 성능 메트릭 - -YOLOv6은 다양한 스케일의 사전 훈련 모델을 제공합니다: - -- YOLOv6-N: NVIDIA Tesla T4 GPU에서 1187 FPS로 COCO val2017에서 37.5% AP. -- YOLOv6-S: 484 FPS로 45.0% AP. -- YOLOv6-M: 226 FPS로 50.0% AP. -- YOLOv6-L: 116 FPS로 52.8% AP. -- YOLOv6-L6: 실시간에서 최첨단 정확성. - -또한, YOLOv6은 다양한 정밀도에 대한 양자화 모델과 모바일 플랫폼에 최적화된 모델도 제공합니다. - -## 사용 예시 - -다음은 간단한 YOLOv6 훈련 및 추론 예시입니다. 이 외에도 [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md), [Export](../modes/export.md) 문서 페이지에서 자세한 내용을 확인할 수 있습니다. - -!!! Example "예제" - - === "Python" - - `*.pt` 사전 훈련된 PyTorch 모델과 구성 `*.yaml` 파일을 `YOLO()` 클래스에 전달하여 파이썬에서 모델 인스턴스를 만들 수 있습니다: - - ```python - from ultralytics import YOLO - - # YOLOv6n 모델을 처음부터 만듭니다 - model = YOLO('yolov6n.yaml') - - # 모델 정보를 표시합니다 (선택 사항) - model.info() - - # COCO8 예시 데이터셋으로 모델을 100 에폭 동안 훈련합니다 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # YOLOv6n 모델로 'bus.jpg' 이미지에서 추론을 실행합니다 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI 명령을 사용하여 모델을 직접 실행할 수 있습니다: - - ```bash - # 처음부터 YOLOv6n 모델을 만들고 COCO8 예시 데이터셋으로 100 에폭 동안 훈련합니다 - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # 처음부터 YOLOv6n 모델을 만들고 'bus.jpg' 이미지에서 추론을 실행합니다 - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## 지원되는 작업 및 모드 - -YOLOv6 시리즈는 높은 성능의 [오브젝트 디텍션](../tasks/detect.md)을 위해 최적화된 다양한 모델을 제공합니다. 이 모델들은 다양한 계산 요구 사항과 정확도 요구 사항에 맞추어 다용도로 사용할 수 있습니다. - -| 모델 유형 | 사전 훈련 가중치 | 지원되는 작업 | 추론 | 검증 | 훈련 | 익스포트 | -|-----------|----------------|--------------------------------|----|----|----|------| -| YOLOv6-N | `yolov6-n.pt` | [오브젝트 디텍션](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [오브젝트 디텍션](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [오브젝트 디텍션](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [오브젝트 디텍션](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [오브젝트 디텍션](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -이 표는 YOLOv6 모델의 다양한 변형에 대한 자세한 개요를 제공하며, 오브젝트 디텍션 작업과 [추론](../modes/predict.md), [검증](../modes/val.md), [훈련](../modes/train.md), [익스포트](../modes/export.md)와 같은 다양한 운영 모드와의 호환성을 강조합니다. 이러한 포괄적인 지원을 통해 사용자들은 다양한 오브젝트 디텍션 시나리오에서 YOLOv6 모델의 기능을 최대한 활용할 수 있습니다. - -## 인용 및 감사의 글 - -실시간 물체 감지 분야에서의 중요한 기여에 대해 작성자들에게 감사의 말씀을 전합니다: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - - YOLOv6 원본 논문은 [arXiv](https://arxiv.org/abs/2301.05586)에서 찾을 수 있습니다. 작성자들이 자신의 작업을 공개하지 않았으며, 코드는 [GitHub](https://github.com/meituan/YOLOv6)에서 액세스할 수 있습니다. 우리는 그들의 노력과 업계 발전을 위해 노력해 널리 알려져 있게 한 저자들에게 감사의 말씀을 전합니다. diff --git a/docs/ko/models/yolov7.md b/docs/ko/models/yolov7.md deleted file mode 100644 index 2071682d794..00000000000 --- a/docs/ko/models/yolov7.md +++ /dev/null @@ -1,65 +0,0 @@ ---- -comments: true -description: YOLOv7은 실시간 객체 검출기로, 뛰어난 속도, 강력한 정확성, 독특한 trainable bag-of-freebies 최적화에 대해 알아봅니다. -keywords: YOLOv7, 실시간 객체 검출기, 최첨단, Ultralytics, MS COCO 데이터셋, 모델 재파라미터화, 동적 라벨 할당, 확장 스케일, 복합 스케일 ---- - -# YOLOv7: Trainable Bag-of-Freebies - -YOLOv7은 5 FPS에서 160 FPS까지의 범위에서 알려진 모든 객체 검출기를 속도와 정확성에서 능가하는 최첨단 실시간 객체 검출기입니다. 이 모델은 GPU V100에서 30 FPS 이상을 달성하여, 알려진 실시간 객체 검출기 중 가장 높은 정확도(56.8% AP)를 보여줍니다. 게다가, YOLOv7은 다른 객체 검출기인 YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5 등에 비해 속도와 정확성 면에서 더 뛰어납니다. 이 모델은 다른 데이터셋이나 사전 학습된 가중치를 사용하지 않고 MS COCO 데이터셋에서 처음부터 훈련되었습니다. YOLOv7의 소스 코드는 GitHub에서 확인할 수 있습니다. - -![YOLOv7와 최첨단 객체 검출기 비교](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**최첨단 객체 검출기 비교**. 표 2의 결과에서 볼 수 있듯이, 제안된 방법은 최상의 속도-정확성 균형을 가지고 있습니다. YOLOv7-tiny-SiLU를 YOLOv5-N(r6.1)과 비교해보면, 저희 방법은 약 127 fps가 더 빠르고 AP에서 10.7% 정확도가 향상됩니다. 게다가, YOLOv7은 161 fps 프레임 속도에서 51.4% AP를 달성하는 반면, PPYOLOE-L은 동일한 AP에서 78 fps 프레임 속도만 갖습니다. 매개 변수 사용 측면에서 YOLOv7는 PPYOLOE-L의 41%를 줄입니다. YOLOv7-X를 114 fps의 추론 속도로 YOLOv5-L(r6.1)의 99 fps 추론 속도와 비교하면, YOLOv7-X는 AP를 3.9% 향상시킵니다. YOLOv7-X를 유사한 스케일의 YOLOv5-X(r6.1)와 비교하면, YOLOv7-X의 추론 속도가 31 fps 더 빨라집니다. 또한, 매개 변수 및 계산의 양 측면에서 YOLOv7-X는 YOLOv5-X(r6.1)과 비교하여 매개 변수 22%와 계산 8%를 줄이고 AP를 2.2% 향상시킵니다 ([출처](https://arxiv.org/pdf/2207.02696.pdf)). - -## 개요 - -실시간 객체 검출은 다중 객체 추적, 자율 주행, 로봇 공학 및 의료 이미지 분석을 비롯한 많은 컴퓨터 비전 시스템의 중요한 구성 요소입니다. 최근 몇 년간 실시간 객체 검출 개발은 효율적인 구조 설계와 다양한 CPU, GPU 및 신경 처리 장치(NPU)의 추론 속도 향상에 초점을 맞추고 있습니다. YOLOv7은 모바일 GPU와 GPU 장치를 모두 지원하여 엣지부터 클라우드까지 다양한 환경에서 사용할 수 있습니다. - -기존의 실시간 객체 검출기가 아키텍처 최적화에 중점을 둔 것과는 달리, YOLOv7은 훈련 과정 최적화에 초점을 두고 있습니다. 이는 추론 비용을 증가시키지 않고 객체 검출의 정확도를 향상시키는 모듈과 최적화 방법을 포함한 "trainable bag-of-freebies" 개념을 도입합니다. - -## 주요 기능 - -YOLOv7은 다음과 같은 주요 기능을 도입합니다: - -1. **모델 재파라미터화**: YOLOv7은 그래디언트 전파 경로 개념을 이용한 다른 네트워크의 레이어에 적용 가능한 전략인 계획된 재파라미터화 모델을 제안합니다. - -2. **동적 라벨 할당**: 다중 출력 레이어 모델의 훈련에서는 "다른 브랜치의 출력에 대해 동적 타깃을 어떻게 할당할 것인가?"라는 새로운 문제가 발생합니다. 이를 해결하기 위해 YOLOv7은 coarse-to-fine 리드 가이드 라벨 할당이라는 새로운 라벨 할당 방법을 도입합니다. - -3. **확장 및 복합 스케일링**: YOLOv7은 매개 변수와 계산을 효과적으로 활용할 수 있는 실시간 객체 검출기를 위한 "확장" 및 "복합 스케일링" 방법을 제안합니다. - -4. **효율성**: YOLOv7이 제안한 방법은 최첨단 실시간 객체 검출기의 매개 변수 약 40%, 계산 약 50%를 효과적으로 줄일 수 있으며, 더 빠른 추론 속도와 더 높은 검출 정확도를 달성할 수 있습니다. - -## 사용 예시 - -기술 시점에서 Ultralytics은 현재 YOLOv7 모델을 지원하지 않습니다. 따라서 YOLOv7을 사용하려는 사용자는 YOLOv7 GitHub 저장소의 설치 및 사용 지침을 직접 참조해야 합니다. - -YOLOv7을 사용하는 일반적인 단계에 대해 간략히 설명해 드리겠습니다: - -1. YOLOv7 GitHub 저장소를 방문합니다: [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7). - -2. 설치에 대한 README 파일에서 제공하는 지침을 따릅니다. 일반적으로 저장소를 복제하고 필요한 종속성을 설치하고 필요한 환경 변수를 설정하는 것이 포함됩니다. - -3. 설치가 완료되면 저장소에서 제공하는 사용 지침에 따라 모델을 훈련하고 사용할 수 있습니다. 이는 데이터셋을 준비하고 모델 매개 변수를 구성하고 모델을 훈련한 다음 훈련된 모델을 사용하여 객체 검출을 수행하는 것을 일반적으로 포함합니다. - -특정 단계는 사용 사례와 YOLOv7 저장소의 현재 상태에 따라 달라질 수 있습니다. 따라서 YOLOv7 GitHub 저장소에서 제공하는 지침을 직접 참조하는 것이 권장됩니다. - -YOLOv7을 지원하게 되면, Ultralytics의 사용 예시를 포함하여 이 문서를 업데이트하기 위해 최선을 다하겠습니다. - -## 인용 및 감사의 글 - -실시간 객체 검출 분야에서의 중요한 기여로 인해 YOLOv7의 저자들에게 감사의 말씀을 전하고자 합니다: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -원본 YOLOv7 논문은 [arXiv](https://arxiv.org/pdf/2207.02696.pdf)에서 찾을 수 있습니다. 저자들은 작업을 공개적으로 사용 가능하게 하였고, 코드베이스는 [GitHub](https://github.com/WongKinYiu/yolov7)에서 확인할 수 있습니다. 저희는 이들이 해당 분야의 발전에 기여하고 작업을 폭넓은 커뮤니티에게 공개 가능하게 한 노력에 감사드립니다. diff --git a/docs/ko/models/yolov8.md b/docs/ko/models/yolov8.md deleted file mode 100644 index a433fcb87b0..00000000000 --- a/docs/ko/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: YOLOv8는 실시간 객체 탐지기인 YOLO 시리즈의 최신 버전으로, 최신 아키텍처, 사전 훈련된 모델 및 정확도와 속도의 최적 균형을 제공함으로써 다양한 객체 탐지 작업에 적합한 선택지입니다. -keywords: YOLOv8, Ultralytics, 실시간 객체 탐지기, 사전 훈련된 모델, 문서, 객체 탐지, YOLO 시리즈, 고급 아키텍처, 정확도, 속도 ---- - -# YOLOv8 - -## 개요 - -YOLOv8는 실시간 객체 탐지기인 YOLO 시리즈의 최신 버전으로, 정확도와 속도면에서 최신 기술을 제공합니다. 이전 YOLO 버전의 기술적 발전을 바탕으로, YOLOv8은 새로운 기능과 최적화를 도입하여 다양한 응용 분야에서 다양한 객체 탐지 작업에 이상적인 선택지가 됩니다. - -![Ultralytics YOLOv8](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## 주요 기능 - -- **고급 백본 및 넥 아키텍처:** YOLOv8은 최첨단 백본 및 넥 아키텍처를 사용하여 향상된 특징 추출과 객체 탐지 성능을 제공합니다. -- **앵커 없는 분리된 Ultralytics 헤드:** YOLOv8은 앵커 기반 접근법에 비해 더 나은 정확도와 효율적인 탐지 과정을 위한 앵커 없는 분리된 Ultralytics 헤드를 채택합니다. -- **정확도와 속도의 최적 균형화:** 정확도와 속도의 최적 균형을 유지하는 것에 초점을 맞춘 YOLOv8은 다양한 응용 분야에서 실시간 객체 탐지 작업에 적합합니다. -- **다양한 사전 훈련된 모델:** YOLOv8은 다양한 작업과 성능 요건에 맞는 사전 훈련된 모델을 제공하여 특정 사용 사례에 적합한 모델을 쉽게 찾을 수 있도록 합니다. - -## 지원하는 작업 및 모드 - -YOLOv8 시리즈는 컴퓨터 비전의 특정 작업을 위해 특화된 다양한 모델을 제공합니다. 이러한 모델은 객체 탐지부터 인스턴스 세그멘테이션, 포즈/키포인트 탐지, 분류와 같은 복잡한 작업까지 다양한 요구 사항을 충족시킬 수 있도록 설계되었습니다. - -각 YOLOv8 시리즈의 변형은 해당 작업에 최적화되어 고성능과 정확도를 제공합니다. 또한 이러한 모델은 [추론](../modes/predict.md), [검증](../modes/val.md), [훈련](../modes/train.md) 및 [내보내기](../modes/export.md)와 같은 다양한 운영 모드와 호환되어 배포 및 개발의 다양한 단계에서 사용할 수 있도록 지원합니다. - -| 모델 | 파일 이름 | 작업 | 추론 | 검증 | 훈련 | 내보내기 | -|-------------|----------------------------------------------------------------------------------------------------------------|------------------------------------|----|----|----|------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [객체 탐지](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [인스턴스 세그멘테이션](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [포즈/키포인트](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [분류](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -이 표는 YOLOv8 모델의 변형을 개요로 제공하며, 특정 작업에서의 적용 가능성 및 추론, 검증, 훈련 및 내보내기와 같은 다양한 운영 모드와의 호환성을 강조합니다. 이는 컴퓨터 비전의 다양한 응용 분야에 적합한 YOLOv8 시리즈의 다재다능함과 견고성을 보여줍니다. - -## 성능 지표 - -!!! 성능 - - === "객체 탐지 (COCO)" - - [COCO](https://docs.ultralytics.com/datasets/detect/coco/)에서 사전 훈련된 이러한 모델을 사용한 사용 예제에 대한 정보는 [객체 탐지 문서](https://docs.ultralytics.com/tasks/detect/)를 참조하십시오. 이는 80개의 사전 훈련된 클래스를 포함합니다. - - | 모델 | 크기
(픽셀) | mAP
val 50-95 | 속도
CPU ONNX
(밀리초) | 속도
A100 TensorRT
(밀리초) | 매개변수
(백만) | FLOPs
(십억) | - | ------------------------------------------------------------------------------------ | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------- | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - - === "객체 탐지 (Open Images V7)" - - [Open Images V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/)에서 사전 훈련된 이러한 모델을 사용한 사용 예제에 대한 정보는 [객체 탐지 문서](https://docs.ultralytics.com/tasks/detect/)를 참조하십시오. 이는 600개의 사전 훈련된 클래스를 포함합니다. - - | 모델 | 크기
(픽셀) | mAP
val 50-95 | 속도
CPU ONNX
(밀리초) | 속도
A100 TensorRT
(밀리초) | 매개변수
(백만) | FLOPs
(십억) | - | ----------------------------------------------------------------------------------------- | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------- | ----------------- | - | [YOLOv8n-oiv7](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 | - | [YOLOv8s-oiv7](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 | - | [YOLOv8m-oiv7](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 | - | [YOLOv8l-oiv7](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 | - | [YOLOv8x-oiv7](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 | - - === "세그멘테이션 (COCO)" - - [COCO](https://docs.ultralytics.com/datasets/segment/coco/)에서 사전 훈련된 이러한 모델을 사용한 사용 예제에 대한 정보는 [세그멘테이션 문서](https://docs.ultralytics.com/tasks/segment/)를 참조하십시오. 이는 80개의 사전 훈련된 클래스를 포함합니다. - - | 모델 | 크기
(픽셀) | mAP
box 50-95 | mAP
mask 50-95 | 속도
CPU ONNX
(밀리초) | 속도
A100 TensorRT
(밀리초) | 매개변수
(백만) | FLOPs
(십억) | - | -------------------------------------------------------------------------------------------- | --------------------- | -------------------- | ------------------ | ------------------------------ | ----------------------------------- | ------------------- | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - - === "분류 (ImageNet)" - - [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/)에서 사전 훈련된 이러한 모델을 사용한 사용 예제에 대한 정보는 [분류 문서](https://docs.ultralytics.com/tasks/classify/)를 참조하십시오. 이는 1000개의 사전 훈련된 클래스를 포함합니다. - - | 모델 | 크기
(픽셀) | top1 정확도 | top5 정확도 | 속도
CPU ONNX
(밀리초) | 속도
A100 TensorRT
(밀리초) | 매개변수
(백만) | FLOPs
(백만) at 640 | - | -------------------------------------------------------------------------------------------- | --------------------- | -------------------- | ----------------- | ------------------------------ | ----------------------------------- | ------------------- | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - - === "포즈 (COCO)" - - [COCO](https://docs.ultralytics.com/datasets/pose/coco/)에서 사전 훈련된 이러한 모델을 사용한 사용 예제에 대한 정보는 [포즈 문서](https://docs.ultralytics.com/tasks/pose/)를 참조하십시오. 이는 'person' 하나의 사전 훈련된 클래스를 포함합니다. - - | 모델 | 크기
(픽셀) | mAP
pose 50-95 | mAP
pose 50 | 속도
CPU ONNX
(밀리초) | 속도
A100 TensorRT
(밀리초) | 매개변수
(백만) | FLOPs
(십억) | - | ---------------------------------------------------------------------------------------------------- | --------------------- | -------------------- | ----------------- | ------------------------------ | ----------------------------------- | ------------------- | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -## 사용 예제 - -이 예제는 간단한 YOLOv8 훈련 및 추론 예제를 제공합니다. 이와 다른 [모드](../modes/index.md)의 전체 문서는 [예측](../modes/predict.md), [훈련](../modes/train.md), [검증](../modes/val.md) 및 [내보내기](../modes/export.md) 문서를 참조하십시오. - -아래 예제는 객체 탐지를 위한 YOLOv8 [Detect](../tasks/detect.md) 모델을 대상으로 합니다. 추가 지원되는 작업에 대해서는 [Segment](../tasks/segment.md), [Classify](../tasks/classify.md) 및 [Pose](../tasks/pose.md) 문서를 참조하십시오. - -!!! 예시 - - === "Python" - - python에서 PyTorch 사전 훈련된 `*.pt` 모델 및 구성 `*.yaml` 파일을 `YOLO()` 클래스에 전달하여 모델 인스턴스를 만들 수 있습니다. - - ```python - from ultralytics import YOLO - - # COCO 사전 훈련된 YOLOv8n 모델 로드 - model = YOLO('yolov8n.pt') - - # 모델 정보 표시 (옵션) - model.info() - - # COCO8 예제 데이터셋에서 모델을 100회 에포크로 훈련 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 'bus.jpg' 이미지에서 YOLOv8n 모델로 추론 실행 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI 명령을 사용하면 직접 모델을 실행할 수 있습니다. - - ```bash - # COCO 사전 훈련된 YOLOv8n 모델을 로드하고 COCO8 예제 데이터셋에서 100회 에포크로 훈련 - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # COCO 사전 훈련된 YOLOv8n 모델을 로드하고 'bus.jpg' 이미지에서 추론 실행 - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## 인용 및 감사의 글 - -이 저장소에서 YOLOv8 모델이나 다른 소프트웨어를 사용한 작업에 대해서는 다음 형식으로 인용해주시기 바랍니다. - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -DOI는 준비 중이며 이용 가능해지면 인용문에 추가될 예정입니다. YOLOv8 모델은 [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) 및 [Enterprise](https://ultralytics.com/license) 라이센스에 따라 제공됩니다. diff --git a/docs/ko/modes/benchmark.md b/docs/ko/modes/benchmark.md deleted file mode 100644 index 147da2fb01d..00000000000 --- a/docs/ko/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: YOLOv8의 다양한 내보내기 형식에 걸쳐 속도 및 정확성을 프로파일링하는 방법을 알아보고, mAP50-95, accuracy_top5 메트릭 및 기타에 대한 통찰을 얻으십시오. -keywords: Ultralytics, YOLOv8, 벤치마킹, 속도 프로파일링, 정확도 프로파일링, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, YOLO 내보내기 형식 ---- - -# Ultralytics YOLO를 사용한 모델 벤치마킹 - -Ultralytics YOLO 생태계 및 통합 - -## 소개 - -모델을 학습하고 검증한 후, 다음으로 논리적인 단계는 다양한 실제 상황에서의 성능을 평가하는 것입니다. Ultralytics YOLOv8의 벤치마크 모드는 다양한 내보내기 형식에서 모델의 속도와 정확도를 평가하는 강력한 프레임워크를 제공하여 이와 같은 목적을 수행하는 역할을 합니다. - -## 벤치마킹이 왜 중요한가요? - -- **정보에 기반한 결정:** 속도와 정확도 사이의 타협점에 대한 통찰력을 얻을 수 있습니다. -- **자원 배분:** 다양한 하드웨어에서 각기 다른 내보내기 형식의 성능을 이해합니다. -- **최적화:** 특정 사용 사례에 가장 적합한 내보내기 형식을 알아냅니다. -- **비용 효율성:** 벤치마크 결과에 기반하여 하드웨어 자원을 보다 효율적으로 사용합니다. - -### 벤치마크 모드의 주요 메트릭 - -- **mAP50-95:** 객체 인식, 세분화, 자세 추정에 사용됩니다. -- **accuracy_top5:** 이미지 분류에 사용됩니다. -- **추론 시간:** 각 이미지 당 밀리초로 측정된 시간입니다. - -### 지원되는 내보내기 형식 - -- **ONNX:** CPU 성능 최적화를 위함 -- **TensorRT:** GPU 효율성을 극대화하기 위함 -- **OpenVINO:** 인텔 하드웨어 최적화를 위함 -- **CoreML, TensorFlow SavedModel, 그 외:** 다양한 배포 요구 사항을 위함. - -!!! Tip "팁" - - * CPU 속도 향상을 위해 ONNX 또는 OpenVINO로 내보내기. - * GPU 속도 향상을 위해 TensorRT로 내보내기. - -## 사용 예제 - -YOLOv8n 벤치마킹을 ONNX, TensorRT 등 모든 지원되는 내보내기 형식에 대해 실행합니다. 완벽한 내보내기 인수 목록을 보려면 아래의 인수 섹션을 참조하세요. - -!!! Example "예제" - - === "파이썬" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # GPU에서 벤치마킹 - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## 인수 - -`model`, `data`, `imgsz`, `half`, `device`, `verbose`와 같은 인수들은 사용자들이 벤치마킹을 특정 필요에 맞게 조정하고 쉽게 다른 내보내기 형식의 성능을 비교할 수 있도록 유연성을 제공합니다. - -| 키 | 값 | 설명 | -|-----------|---------|----------------------------------------------------------| -| `model` | `None` | 모델 파일 경로, 예: yolov8n.pt, yolov8n.yaml | -| `data` | `None` | 벤치마킹 데이터 세트를 참조하는 YAML 경로 ('val' 레이블 아래) | -| `imgsz` | `640` | 스칼라 또는 (h, w) 리스트 형태의 이미지 크기, 예: (640, 480) | -| `half` | `False` | FP16 양자화 | -| `int8` | `False` | INT8 양자화 | -| `device` | `None` | 실행할 기기, 예: CUDA device=0 혹은 device=0,1,2,3 또는 device=cpu | -| `verbose` | `False` | 오류 시 계속하지 않음 (bool), 또는 val 하한 임계값 (float) | - -## 내보내기 형식 - -벤치마크는 아래에 나와있는 가능한 모든 내보내기 형식에서 자동으로 실행을 시도합니다. - -| 형식 | `format` 인자 | 모델 | 메타데이터 | 인수 | -|--------------------------------------------------------------------|---------------|---------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -전체 `export` 세부 정보는 [Export](https://docs.ultralytics.com/modes/export/) 페이지에서 확인할 수 있습니다. diff --git a/docs/ko/modes/export.md b/docs/ko/modes/export.md deleted file mode 100644 index 98a9f100598..00000000000 --- a/docs/ko/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: YOLOv8 모델을 ONNX, TensorRT, CoreML 등의 다양한 형식으로 내보내는 단계별 가이드를 확인해보세요. 이제 배포를 진행해보세요!. -keywords: YOLO, YOLOv8, Ultralytics, 모델 내보내기, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, 모델 내보내기 ---- - -# Ultralytics YOLO를 사용한 모델 내보내기 - -Ultralytics YOLO 생태계 및 통합 - -## 소개 - -모델을 훈련하는 최종 목적은 실제 환경에서 배포하기 위함입니다. Ultralytics YOLOv8의 내보내기 모드는 훈련된 모델을 다양한 형식으로 내보내어 여러 플랫폼과 디바이스에서 배포할 수 있는 범용적인 옵션을 제공합니다. 이 포괄적인 가이드는 모델 내보내기의 미묘한 점들을 설명하고 최대의 호환성과 성능을 달성하는 방법을 안내하는 것을 목표로 합니다. - -

-
- -
- 시청하기: 사용자 지정 훈련된 Ultralytics YOLOv8 모델을 내보내고 웹캠에서 실시간 추론을 실행하는 방법. -

- -## YOLOv8의 내보내기 모드를 선택해야 하는 이유는 무엇인가요? - -- **범용성:** ONNX, TensorRT, CoreML 등 다양한 형식으로 내보낼 수 있습니다. -- **성능:** TensorRT를 사용할 경우 최대 5배 빠른 GPU 속도 향상 및 ONNX 또는 OpenVINO를 사용하여 최대 3배 빠른 CPU 속도 향상을 얻을 수 있습니다. -- **호환성:** 모델을 다양한 하드웨어 및 소프트웨어 환경에서 배포할 수 있도록 만들어줍니다. -- **사용의 용이성:** 모델 내보내기를 위한 간단한 CLI 및 Python API 제공. - -### 내보내기 모드의 주요 기능 - -다음은 몇 가지 주요 기능들입니다: - -- **원클릭 내보내기:** 다양한 형식으로 내보내기 위한 간단한 명령어. -- **배치 내보내기:** 배치 추론이 가능한 모델들을 내보낼 수 있습니다. -- **최적화된 추론:** 내보낸 모델들은 더 빠른 추론 시간을 위해 최적화되어 있습니다. -- **튜토리얼 비디오:** 원활한 내보내기 경험을 위한 심도 있는 가이드 및 튜토리얼. - -!!! Tip "팁" - - * CPU 속도 향상을 위해 ONNX 또는 OpenVINO로 내보내세요. - * GPU 속도 향상을 위해 TensorRT로 내보내세요. - -## 사용 예시 - -YOLOv8n 모델을 ONNX나 TensorRT와 같은 다른 형식으로 내보냅니다. 내보내기 인수에 대한 전체 목록은 아래 '인수' 섹션을 참조하세요. - -!!! 예시 "" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델을 불러오기 - model = YOLO('yolov8n.pt') # 공식 모델을 불러오기 - model = YOLO('path/to/best.pt') # 사용자 지정 훈련 모델을 불러오기 - - # 모델을 내보내기 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # 공식 모델을 내보내기 - yolo export model=path/to/best.pt format=onnx # 사용자 지정 훈련 모델을 내보내기 - ``` - -## 인수 - -YOLO 모델의 내보내기 설정은 다른 환경이나 플랫폼에서 모델을 사용하기 위해 저장 또는 내보내기할 때 사용하는 다양한 구성 및 옵션을 의미합니다. 이러한 설정은 모델의 성능, 크기 및 다양한 시스템과의 호환성에 영향을 미칠 수 있습니다. 일반적인 YOLO 내보내기 설정에는 내보낸 모델 파일의 형식(예: ONNX, TensorFlow SavedModel), 모델이 실행될 장치(예: CPU, GPU) 및 마스크 또는 상자당 여러 라벨과 같은 추가 기능의 포함 여부 등이 있습니다. 모델이 사용되는 특정 작업과 대상 환경 또는 플랫폼의 요구 사항이나 제약 사항에 따라 내보내기 과정에 영향을 미치는 다른 요소들도 있을 수 있습니다. 내보낸 모델이 의도한 용도로 최적화되어 있고 대상 환경에서 효과적으로 사용할 수 있도록 이러한 설정을 세심하게 고려하고 구성하는 것이 중요합니다. - -| 키 | 값 | 설명 | -|-------------|-----------------|---------------------------------------------| -| `format` | `'torchscript'` | 내보낼 형식 | -| `imgsz` | `640` | 스칼라 또는 (h, w) 리스트 형식의 이미지 크기, 예: (640, 480) | -| `keras` | `False` | TF SavedModel 내보내기에 Keras 사용 | -| `optimize` | `False` | TorchScript: 모바일 최적화 | -| `half` | `False` | FP16 양자화 | -| `int8` | `False` | INT8 양자화 | -| `dynamic` | `False` | ONNX/TensorRT: 동적 축 | -| `simplify` | `False` | ONNX/TensorRT: 모델 단순화 | -| `opset` | `None` | ONNX: opset 버전 (선택적, 기본값은 최신) | -| `workspace` | `4` | TensorRT: 작업공간 크기 (GB) | -| `nms` | `False` | CoreML: NMS 추가 | - -## 내보내기 형식 - -아래 표에는 사용 가능한 YOLOv8 내보내기 형식이 나와 있습니다. `format` 인수를 사용하여 어떤 형식으로든 내보낼 수 있습니다. 예: `format='onnx'` 또는 `format='engine'`. - -| 형식 | `format` 인수 | 모델 | 메타데이터 | 인수 | -|--------------------------------------------------------------------|---------------|---------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/ko/modes/index.md b/docs/ko/modes/index.md deleted file mode 100644 index 1d406be0604..00000000000 --- a/docs/ko/modes/index.md +++ /dev/null @@ -1,73 +0,0 @@ ---- -comments: true -description: YOLOv8를 통해 트레이닝부터 추적까지, Ultralytics에 최적화된 모든 기능을 활용하세요. 지원되는 각 모드에 대한 통찰력과 예시를 포함하여 검증, 내보내기, 벤치마킹까지 이해하실 수 있습니다. -keywords: Ultralytics, YOLOv8, 머신러닝, 객체탐지, 트레이닝, 검증, 예측, 내보내기, 추적, 벤치마킹 ---- - -# Ultralytics YOLOv8 모드 - -Ultralytics YOLO 생태계 및 통합 - -## 서론 - -Ultralytics YOLOv8는 단순한 객체 탐지 모델이 아닙니다; 데이터 수집에서 모델 트레이닝, 검증, 배포, 실세계 추적에 이르기까지 머신러닝 모델의 전체 생애주기를 커버하기 위해 설계된 다재다능한 프레임워크입니다. 각각의 모드는 특정 목적을 위해 섬세하게 구성되며, 다양한 작업 및 사용 사례에 필요한 유연성과 효율성을 제공합니다. - -

-
- -
- 시청하기: Ultralytics 모드 튜토리얼: 트레이닝, 검증, 예측, 내보내기 및 벤치마킹. -

- -### 모드 요약 - -YOLOv8이 지원하는 **모드**를 이해하는 것은 모델을 최대한 활용하기 위해 필수적입니다: - -- **Train** 모드: 사용자 맞춤 또는 사전 로드된 데이터셋 위에서 모델을 튜닝합니다. -- **Val** 모드: 트레이닝 후 모델 성능을 검증하기 위한 체크포인트. -- **Predict** 모드: 실세계 데이터에서 모델의 예측력을 발휘합니다. -- **Export** 모드: 다양한 포맷으로 모델을 배포 준비 상태로 만듭니다. -- **Track** 모드: 객체 탐지 모델을 실시간 추적 애플리케이션으로 확장합니다. -- **Benchmark** 모드: 다양한 배포 환경에서 모델의 속도와 정확도를 분석합니다. - -이 포괄적인 가이드는 각 모드에 대한 개요와 실제 인사이트를 제공하여 YOLOv8의 전체 잠재력을 활용할 수 있도록 도와줍니다. - -## [Train](train.md) - -Train 모드는 사용자 맞춤 데이터셋 위에서 YOLOv8 모델을 트레이닝하기 위해 사용됩니다. 이 모드에서는 지정된 데이터셋과 하이퍼파라미터를 사용하여 모델을 트레이닝합니다. 트레이닝 과정에서 모델의 파라미터를 최적화하여 이미지 내 객체의 클래스와 위치를 정확히 예측할 수 있도록 합니다. - -[Train 예시](train.md){ .md-button } - -## [Val](val.md) - -Val 모드는 트레이닝된 YOLOv8 모델을 검증하기 위해 사용됩니다. 이 모드에서는 모델을 검증 세트에서 평가하여 정확도 및 일반화 성능을 측정합니다. 이 모드는 모델의 하이퍼파라미터를 조정하고 성능을 개선하는데 사용할 수 있습니다. - -[Val 예시](val.md){ .md-button } - -## [Predict](predict.md) - -Predict 모드는 트레이닝된 YOLOv8 모델을 사용하여 새 이미지 또는 비디오에서 예측을 수행하기 위해 사용됩니다. 이 모드에서는 체크포인트 파일에서 모델을 로드하고, 사용자가 이미지나 비디오를 제공하여 추론을 수행합니다. 모델은 입력 이미지 또는 비디오에서 객체의 클래스와 위치를 예측합니다. - -[Predict 예시](predict.md){ .md-button } - -## [Export](export.md) - -Export 모드는 배포를 위해 YOLOv8 모델을 내보낼 수 있는 포맷으로 변환하기 위해 사용됩니다. 이 모드에서는 모델을 다른 소프트웨어 어플리케이션 또는 하드웨어 기기에서 사용할 수 있는 포맷으로 변환합니다. 이 모드는 모델을 생산 환경으로 배포하는데 유용합니다. - -[Export 예시](export.md){ .md-button } - -## [Track](track.md) - -Track 모드는 실시간으로 YOLOv8 모델을 사용하여 객체를 추적하기 위해 사용됩니다. 이 모드에서는 체크포인트 파일에서 모델을 로드하고, 사용자가 실시간 비디오 스트림을 제공하여 실시간 객체 추적을 수행합니다. 이 모드는 감시 시스템이나 자율 주행 차량 같은 애플리케이션에 유용합니다. - -[Track 예시](track.md){ .md-button } - -## [Benchmark](benchmark.md) - -Benchmark 모드는 YOLOv8의 다양한 내보내기 포맷에 대한 속도와 정확도를 프로파일링하기 위해 사용됩니다. 벤치마크는 내보낸 포맷의 크기, 그리고 객체 탐지, 세분화 및 포즈에 대한 `mAP50-95` 메트릭 또는 분류에 대한 `accuracy_top5` 메트릭, 그리고 ONNX, OpenVINO, TensorRT 등 다양한 내보내기 포맷에서의 이미지당 추론 시간을 밀리초로 제공합니다. 이 정보는 속도와 정확도에 대한 특정 사용 사례 요구 사항에 기반하여 최적의 내보내기 포맷을 선택하는 데 도움이 될 수 있습니다. - -[Benchmark 예시](benchmark.md){ .md-button } diff --git a/docs/ko/modes/predict.md b/docs/ko/modes/predict.md deleted file mode 100644 index ce0f6eafa6f..00000000000 --- a/docs/ko/modes/predict.md +++ /dev/null @@ -1,227 +0,0 @@ ---- -comments: true -description: YOLOv8 예측 모드를 사용하여 다양한 작업을 수행하는 방법을 알아보십시오. 이미지, 비디오 및 데이터 형식과 같은 다양한 추론 소스에 대해 자세히 알아봅니다. -keywords: Ultralytics, YOLOv8, 예측 모드, 추론 소스, 예측 작업, 스트리밍 모드, 이미지 처리, 비디오 처리, 머신 러닝, AI ---- - -# Ultralytics YOLO로 모델 예측 - -Ultralytics YOLO 생태계와 통합 - -## 소개 - -머신 러닝 및 컴퓨터 비전의 세계에서 시각적 데이터를 해석하는 과정을 '추론' 또는 '예측'이라고 합니다. Ultralytics YOLOv8는 다양한 데이터 소스에서의 고성능, 실시간 추론을 위해 맞춤화된 강력한 기능인 **예측 모드**를 제공합니다. - -

-
- -
- 시청: Ultralytics YOLOv8 모델에서 출력을 추출하여 맞춤 프로젝트에 사용하는 방법. -

- -## 실제 응용 분야 - -| 제조업 | 스포츠 | 안전 | -|:-----------------------------------------------------------------------------------------------------------------:|:--------------------------------------------------------------------------------------------------------------:|:---------------------------------------------------------------------------------------------------------------:| -| ![차량 예비 부품 탐지](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1) | ![축구 선수 탐지](https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442) | ![사람 넘어짐 탐지](https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43) | -| 차량 예비 부품 탐지 | 축구 선수 탐지 | 사람 넘어짐 탐지 | - -## 예측 인퍼런스를 위해 Ultralytics YOLO 사용하기 - -다음은 YOLOv8의 예측 모드를 다양한 추론 요구 사항에 사용해야 하는 이유입니다: - -- **다양성:** 이미지, 비디오, 심지어 실시간 스트림에 대한 추론을 수행할 수 있습니다. -- **성능:** 정확성을 희생하지 않고 실시간, 고속 처리를 위해 설계되었습니다. -- **사용 편의성:** 빠른 배포 및 테스트를 위한 직관적인 Python 및 CLI 인터페이스를 제공합니다. -- **고도의 사용자 정의:** 특정 요구 사항에 맞게 모델의 추론 행동을 조율하기 위한 다양한 설정 및 매개변수를 제공합니다. - -### 예측 모드의 주요 기능 - -YOLOv8의 예측 모드는 강력하고 다재다능하게 설계되었으며, 다음과 같은 특징을 갖고 있습니다: - -- **다중 데이터 소스 호환성:** 데이터가 개별 이미지, 이미지 컬렉션, 비디오 파일 또는 실시간 비디오 스트림의 형태로 존재하는지 여부에 관계없이 예측 모드가 지원합니다. -- **스트리밍 모드:** `Results` 객체의 메모리 효율적인 생성자로 스트리밍 기능을 사용합니다. 예측기의 호출 메서드에서 `stream=True`로 설정하여 활성화합니다. -- **배치 처리:** 단일 배치에서 여러 이미지 또는 비디오 프레임을 처리하는 기능을 통해 추론 시간을 더욱 단축합니다. -- **통합 친화적:** 유연한 API 덕분에 기존 데이터 파이프라인 및 기타 소프트웨어 구성 요소와 쉽게 통합할 수 있습니다. - -Ultralytics YOLO 모델은 Python `Results` 객체의 리스트를 반환하거나, 추론 중 `stream=True`가 모델에 전달될 때 `Results` 객체의 메모리 효율적인 Python 생성자를 반환합니다: - -!!! 예시 "예측" - - === "`stream=False`로 리스트 반환" - ```python - from ultralytics import YOLO - - # 모델 로드 - model = YOLO('yolov8n.pt') # 사전 훈련된 YOLOv8n 모델 - - # 이미지 리스트에 대한 배치 추론 실행 - results = model(['im1.jpg', 'im2.jpg']) # Results 객체의 리스트 반환 - - # 결과 리스트 처리 - for result in results: - boxes = result.boxes # bbox 출력을 위한 Boxes 객체 - masks = result.masks # 세그멘테이션 마스크 출력을 위한 Masks 객체 - keypoints = result.keypoints # 자세 출력을 위한 Keypoints 객체 - probs = result.probs # 분류 출력을 위한 Probs 객체 - ``` - - === "`stream=True`로 생성자 반환" - ```python - from ultralytics import YOLO - - # 모델 로드 - model = YOLO('yolov8n.pt') # 사전 훈련된 YOLOv8n 모델 - - # 이미지 리스트에 대한 배치 추론 실행 - results = model(['im1.jpg', 'im2.jpg'], stream=True) # Results 객체의 생성자 반환 - - # 결과 생성자 처리 - for result in results: - boxes = result.boxes # bbox 출력을 위한 Boxes 객체 - masks = result.masks # 세그멘테이션 마스크 출력을 위한 Masks 객체 - keypoints = result.keypoints # 자세 출력을 위한 Keypoints 객체 - probs = result.probs # 분류 출력을 위한 Probs 객체 - ``` - -## 추론 소스 - -YOLOv8은 아래 표에 표시된 바와 같이 추론을 위한 다양한 유형의 입력 소스를 처리할 수 있습니다. 소스에는 정적 이미지, 비디오 스트림, 다양한 데이터 형식이 포함됩니다. 표는 또한 각 소스를 'stream=True' ✅와 함께 스트리밍 모드에서 사용할 수 있는지 여부를 나타냅니다. 스트리밍 모드는 비디오나 라이브 스트림을 처리할 때 결과를 메모리에 모두 로드하는 대신 결과의 생성자를 만들어 유용하게 사용됩니다. - -!!! Tip "팁" - - 긴 비디오나 큰 데이터 세트를 처리할 때 'stream=True'를 사용하여 효율적으로 메모리를 관리합니다. 'stream=False'일 때는 모든 프레임 또는 데이터 포인트에 대한 결과가 메모리에 저장되어, 입력이 크면 메모리 부족 오류를 빠르게 유발할 수 있습니다. 반면에, 'stream=True'는 생성자를 사용하여 현재 프레임 또는 데이터 포인트의 결과만 메모리에 유지하여 메모리 소비를 크게 줄이고 메모리 부족 문제를 방지합니다. - -| 소스 | 인수 | 유형 | 비고 | -|-----------|--------------------------------------------|-----------------|--------------------------------------------------------------------------| -| 이미지 | `'image.jpg'` | `str` 또는 `Path` | 단일 이미지 파일. | -| URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | 이미지 URL. | -| 스크린샷 | `'screen'` | `str` | 스크린샷을 캡처합니다. | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | HWC 형식으로 RGB 채널이 있습니다. | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | HWC 형식으로 BGR 채널이 있고 `uint8 (0-255)` 입니다. | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | HWC 형식으로 BGR 채널이 있고 `uint8 (0-255)` 입니다. | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | BCHW 형식으로 RGB 채널이 있고 `float32 (0.0-1.0)` 입니다. | -| CSV | `'sources.csv'` | `str` 또는 `Path` | 이미지, 비디오 또는 디렉토리 경로가 있는 CSV 파일. | -| 비디오 ✅ | `'video.mp4'` | `str` 또는 `Path` | MP4, AVI 등과 같은 형식의 비디오 파일입니다. | -| 디렉토리 ✅ | `'path/'` | `str` 또는 `Path` | 이미지나 비디오가 있는 디렉토리 경로입니다. | -| 글로브 ✅ | `'path/*.jpg'` | `str` | 여러 파일에 일치하는 글로브 패턴입니다. '*' 문자를 와일드카드로 사용하세요. | -| YouTube ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | YouTube 비디오의 URL입니다. | -| 스트림 ✅ | `'rtsp://example.com/media.mp4'` | `str` | RTSP, RTMP, TCP 또는 IP 주소와 같은 스트리밍 프로토콜의 URL입니다. | -| 멀티-스트림 ✅ | `'list.streams'` | `str` 또는 `Path` | 스트림 URL이 행당 하나씩 있는 `*.streams` 텍스트 파일이며, 예를 들어 8개의 스트림은 배치 크기 8에서 실행됩니다. | - -아래는 각 유형의 소스를 사용하는 코드 예제입니다: - -!!! 예시 "예측 소스" - - === "이미지" - 이미지 파일에서 추론을 실행합니다. - ```python - from ultralytics import YOLO - - # 사전 훈련된 YOLOv8n 모델 로드 - model = YOLO('yolov8n.pt') - - # 이미지 파일 경로 정의 - source = 'path/to/image.jpg' - - # 소스에서 추론 실행 - results = model(source) # Results 객체의 리스트 - ``` - - === "스크린샷" - 현재 스크린 콘텐츠를 스크린샷으로 추론을 실행합니다. - ```python - from ultralytics import YOLO - - # 사전 훈련된 YOLOv8n 모델 로드 - model = YOLO('yolov8n.pt') - - # 현재 스크린샷을 소스로 정의 - source = 'screen' - - # 소스에서 추론 실행 - results = model(source) # Results 객체의 리스트 - ``` - - === "URL" - URL을 통해 원격으로 호스팅되는 이미지나 비디오에서 추론을 실행합니다. - ```python - from ultralytics import YOLO - - # 사전 훈련된 YOLOv8n 모델 로드 - model = YOLO('yolov8n.pt') - - # 원격 이미지나 동영상 URL 정의 - source = 'https://ultralytics.com/images/bus.jpg' - - # 소스에서 추론 실행 - results = model(source) # Results 객체의 리스트 - ``` - - === "PIL" - Python Imaging Library (PIL)로 열린 이미지에서 추론을 실행합니다. - ```python - from PIL import Image - from ultralytics import YOLO - - # 사전 훈련된 YOLOv8n 모델 로드 - model = YOLO('yolov8n.pt') - - # PIL을 사용하여 이미지 열기 - source = Image.open('path/to/image.jpg') - - # 소스에서 추론 실행 - results = model(source) # Results 객체의 리스트 - ``` - - === "OpenCV" - OpenCV로 읽은 이미지에서 추론을 실행합니다. - ```python - import cv2 - from ultralytics import YOLO - - # 사전 훈련된 YOLOv8n 모델 로드 - model = YOLO('yolov8n.pt') - - # OpenCV를 사용하여 이미지 읽기 - source = cv2.imread('path/to/image.jpg') - - # 소스에서 추론 실행 - results = model(source) # Results 객체의 리스트 - ``` - - === "numpy" - numpy 배열로 표현된 이미지에서 추론을 실행합니다. - ```python - import numpy as np - from ultralytics import YOLO - - # 사전 훈련된 YOLOv8n 모델 로드 - model = YOLO('yolov8n.pt') - - # 무작위 numpy 배열 생성, HWC 형태 (640, 640, 3), 값 범위 [0, 255], 타입 uint8 - source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') - - # 소스에서 추론 실행 - results = model(source) # Results 객체의 리스트 - ``` - - === "torch" - PyTorch 텐서로 표현된 이미지에서 추론을 실행합니다. - ```python - import torch - from ultralytics import YOLO - - # 사전 훈련된 YOLOv8n 모델 로드 - model = YOLO('yolov8n.pt') - - # 무작위 torch 텐서 생성, BCHW 형태 (1, 3, 640, 640), 값 범위 [0, 1], 타입 float32 - source = torch.rand(1, 3, 640, 640, dtype=torch.float32) - - # 소스에서 추론 실행 - results = model(source) # Results 객체의 리스트 - ``` diff --git a/docs/ko/modes/track.md b/docs/ko/modes/track.md deleted file mode 100644 index 73f2cca3d95..00000000000 --- a/docs/ko/modes/track.md +++ /dev/null @@ -1,256 +0,0 @@ ---- -comments: true -description: Ultralytics YOLO를 사용하여 비디오 스트림에서 객체 추적을 사용하는 방법을 알아보세요. 다양한 추적기를 사용하는 안내와 추적기 구성을 맞춤 설정하는 방법에 대한 가이드가 있습니다. -keywords: Ultralytics, YOLO, 객체 추적, 비디오 스트림, BoT-SORT, ByteTrack, 파이썬 가이드, CLI 가이드 ---- - -# Ultralytics YOLO를 이용한 다중 객체 추적 - -다중 객체 추적 예시 - -비디오 분석의 영역에서 객체 추적은 프레임 내에서 객체의 위치와 클래스를 식별할 뿐만 아니라 비디오가 진행됨에 따라 각각의 검출된 객체에 대해 고유 ID를 유지하는 중요한 작업입니다. 응용 프로그램은 감시 및 보안에서 실시간 스포츠 분석에 이르기까지 무한합니다. - -## 객체 추적을 위해 Ultralytics YOLO를 선택해야 하는 이유는? - -Ultralytics 추적기의 출력은 표준 객체 검출과 일관되지만 객체 ID가 추가된 가치가 있습니다. 이를 통해 비디오 스트림에서 객체를 추적하고 이후 분석을 수행하기가 쉽습니다. 여기에 어떤 이유로 Ultralytics YOLO를 사용해야 하는지에 대해 설명합니다: - -- **효율성:** 정확성을 저하시키지 않으면서 실시간으로 비디오 스트림을 처리합니다. -- **유연성:** 다양한 추적 알고리즘과 구성을 지원합니다. -- **사용하기 쉬움:** 간단한 파이썬 API 및 CLI 옵션으로 빠른 통합 및 배치가 가능합니다. -- **맞춤 설정:** 맞춤 학습된 YOLO 모델과 함께 사용하기 쉬워 특정 도메인 응용 프로그램에 통합할 수 있습니다. - -

-
- -
- 시청하기: Ultralytics YOLOv8로 객체 감지 및 추적하기. -

- -## 실제 세계 응용 프로그램 - -| 교통수단 | 소매업 | 수산업 | -|:-----------------------------------------------------------------------------------------------------------:|:-----------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------:| -| ![차량 추적](https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab) | ![사람 추적](https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527) | ![물고기 추적](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142) | -| 차량 추적 | 사람 추적 | 물고기 추적 | - -## 한눈에 보기 - -Ultralytics YOLO는 객체 감지 기능을 확장하여 견고하고 다재다능한 객체 추적을 제공합니다: - -- **실시간 추적:** 고화면률의 비디오에서 매끄럽게 객체 추적합니다. -- **다중 추적기 지원:** 다양한 검증된 추적 알고리즘 중에서 선택 가능합니다. -- **맞춤형 추적기 구성:** 다양한 매개변수를 조정하여 특정 요구사항에 맞게 추적 알고리즘을 맞춤화할 수 있습니다. - -## 사용 가능한 추적기 - -Ultralytics YOLO는 다음과 같은 추적 알고리즘을 지원합니다. 관련 YAML 구성 파일(예: `tracker=tracker_type.yaml`)을 전달하여 사용할 수 있습니다: - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - 이 추적기를 활성화하려면 `botsort.yaml`을 사용합니다. -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - 이 추적기를 활성화하려면 `bytetrack.yaml`을 사용합니다. - -기본 추적기는 BoT-SORT입니다. - -## 추적 - -비디오 스트림에서 추적기를 실행하려면 YOLOv8n, YOLOv8n-seg 및 YOLOv8n-pose와 같은 훈련된 Detect, Segment 또는 Pose 모델을 사용하십시오. - -!!! 예시 "" - - === "파이썬" - - ```python - from ultralytics import YOLO - - # 공식 모델 또는 맞춤 모델을 불러오기 - model = YOLO('yolov8n.pt') # 공식 Detect 모델 불러오기 - model = YOLO('yolov8n-seg.pt') # 공식 Segment 모델 불러오기 - model = YOLO('yolov8n-pose.pt') # 공식 Pose 모델 불러오기 - model = YOLO('path/to/best.pt') # 맞춤 학습된 모델 불러오기 - - # 모델을 사용하여 추적 수행 - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # 기본 추적기로 추적하기 - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # ByteTrack 추적기로 추적하기 - ``` - - === "CLI" - - ```bash - # 명령 행 인터페이스를 사용하여 다양한 모델로 추적 수행 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # 공식 Detect 모델 - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # 공식 Segment 모델 - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # 공식 Pose 모델 - yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # 맞춤 학습된 모델 - - # ByteTrack 추적기를 사용하여 추적하기 - yolo track model=path/to/best.pt tracker="bytetrack.yaml" - ``` - -위의 사용법에서 볼 수 있듯이 모든 Detect, Segment 및 Pose 모델은 비디오나 스트리밍 출처에서 추적이 가능합니다. - -## 구성 - -### 추적 인수 - -추적 구성은 `conf`, `iou` 및 `show`와 같은 예측 모드와 동일한 속성을 공유합니다. 추가 구성에 대해서는 [Predict](https://docs.ultralytics.com/modes/predict/) 모델 페이지를 참조하십시오. - -!!! 예시 "" - - === "파이썬" - - ```python - from ultralytics import YOLO - - # 추적 매개변수를 구성하고 추적기를 실행합니다 - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # 추적 매개변수를 구성하고 명령 행 인터페이스를 사용하여 추적기를 실행합니다 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### 추적기 선택 - -Ultralytics에서는 수정된 추적기 구성 파일도 사용할 수 있습니다. 이를 위해 [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)에서 추적기 구성 파일의 복사본(예: `custom_tracker.yaml`)을 만들고 필요한대로 구성을 수정하면 됩니다(단, `tracker_type` 제외). - -!!! 예시 "" - - === "파이썬" - - ```python - from ultralytics import YOLO - - # 모델을 불러오고 맞춤 구성 파일로 추적기를 실행합니다 - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # 명령 행 인터페이스를 사용하여 맞춤 구성 파일로 모델을 불러오고 추적기를 실행합니다 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -추적 인수에 대한 종합적인 목록은 [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) 페이지를 참조하세요. - -## 파이썬 예시 - -### 보존하는 추적 루프 - -다음은 OpenCV(`cv2`)와 YOLOv8를 사용하여 비디오 프레임에서 객체 추적을 실행하는 파이썬 스크립트입니다. 이 스크립트에서는 필요한 패키지(`opencv-python` 및 `ultralytics`)를 이미 설치했다고 가정합니다. `persist=True` 인수는 추적기에 현재 이미지 또는 프레임이 시퀀스에서 다음 것이며 현재 이미지에서 이전 이미지의 추적을 예상한다고 알립니다. - -!!! 예시 "추적이 포함된 스트리밍 for-loop" - - ```python - import cv2 - from ultralytics import YOLO - - # YOLOv8 모델을 불러옵니다 - model = YOLO('yolov8n.pt') - - # 비디오 파일을 엽니다 - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # 비디오 프레임을 반복합니다 - while cap.isOpened(): - # 비디오에서 프레임을 읽습니다 - success, frame = cap.read() - - if success: - # 프레임에 YOLOv8 추적을 실행하여 추적을 유지합니다 - results = model.track(frame, persist=True) - - # 결과를 프레임에 시각화합니다 - annotated_frame = results[0].plot() - - # 어노테이션된 프레임을 표시합니다 - cv2.imshow("YOLOv8 추적", annotated_frame) - - # 'q'가 눌리면 루프를 중단합니다 - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # 비디오의 끝에 도달하면 루프를 중단합니다 - break - - # 비디오 캡처 객체를 해제하고 표시 창을 닫습니다 - cap.release() - cv2.destroyAllWindows() - ``` - -여기서 `model(frame)`을 `model.track(frame)`으로 변경하면 단순 감지가 아닌 객체 추적이 가능해집니다. 이 수정된 스크립트는 비디오의 각 프레임에 추적기를 실행하고 결과를 시각화한 후 창에 표시합니다. 'q'를 누르면 루프가 종료됩니다. - -### 시간에 따른 추적 그리기 - -연속 프레임에서 객체 추적을 시각화하면 비디오 내에서 검출된 객체의 이동 패턴과 행동에 대한 소중한 통찰력을 제공할 수 있습니다. Ultralytics YOLOv8을 사용하면 이러한 추적을 원활하고 효율적으로 플로팅할 수 있습니다. - -다음 예시에서, 여러 비디오 프레임에 걸친 검출된 객체의 움직임을 플로팅하기 위해 YOLOv8의 추적 기능을 활용하는 방법을 보여줍니다. 이 스크립트는 비디오 파일을 여는 것을 포함하여 프레임별로 읽고 YOLO 모델을 사용하여 다양한 객체를 식별하고 추적합니다. 검출된 경계 상자의 중심점을 보존하고 연결하여 추적된 객체의 경로를 나타내는 선을 그립니다. - -!!! 예시 "비디오 프레임에 걸쳐 추적 그리기" - - ```python - from collections import defaultdict - - import cv2 - import numpy as np - - from ultralytics import YOLO - - # YOLOv8 모델을 불러옵니다 - model = YOLO('yolov8n.pt') - - # 비디오 파일을 엽니다 - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # 추적 내역을 저장합니다 - track_history = defaultdict(lambda: []) - - # 비디오 프레임을 반복합니다 - while cap.isOpened(): - # 비디오에서 프레임을 읽습니다 - success, frame = cap.read() - - if success: - # 프레임에 YOLOv8 추적을 실행하여 추적을 유지합니다 - results = model.track(frame, persist=True) - - # 상자 및 추적 ID를 가져옵니다 - boxes = results[0].boxes.xywh.cpu() - track_ids = results[0].boxes.id.int().cpu().tolist() - - # 결과를 프레임에 시각화합니다 - annotated_frame = results[0].plot() - - # 추적을 플롯합니다 - for box, track_id in zip(boxes, track_ids): - x, y, w, h = box - track = track_history[track_id] - track.append((float(x), float(y))) # x, y의 중심점 - if len(track) > 30: # 90프레임에 대해 90개의 추적을 유지 - track.pop(0) - - # 추적 라인을 그립니다 - points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2)) - cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10) - - # 어노테이션된 프레임을 표시합니다 - cv2.imshow("YOLOv8 추적", annotated_frame) - - # 'q'가 눌리면 루프를 중단합니다 - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # 비디오의 끝에 도달하면 루프를 중단합니다 - break - - ``` diff --git a/docs/ko/modes/train.md b/docs/ko/modes/train.md deleted file mode 100644 index 2caafd35389..00000000000 --- a/docs/ko/modes/train.md +++ /dev/null @@ -1,145 +0,0 @@ ---- -comments: true -description: YOLOv8 모델을 Ultralytics YOLO를 사용하여 훈련하는 단계별 가이드로, 단일 GPU 및 다중 GPU 훈련의 예제 포함 -keywords: Ultralytics, YOLOv8, YOLO, 객체 감지, 훈련 모드, 사용자 정의 데이터셋, GPU 훈련, 다중 GPU, 하이퍼파라미터, CLI 예제, Python 예제 ---- - -# Ultralytics YOLO와 함께 하는 모델 훈련 - -Ultralytics YOLO 생태계 및 통합 - -## 소개 - -딥러닝 모델을 훈련한다는 것은 모델에 데이터를 공급하고 그것이 정확한 예측을 할 수 있도록 매개변수를 조정하는 과정을 말합니다. Ultralytics YOLOv8의 훈련 모드는 현대 하드웨어 기능을 완전히 활용하여 객체 감지 모델의 효과적이고 효율적인 훈련을 위해 설계되었습니다. 이 가이드는 YOLOv8의 강력한 기능 세트를 사용하여 자체 모델을 훈련하는 데 필요한 모든 세부 정보를 다루는 것을 목표로 합니다. - -

-
- -
- 시청하기: Google Colab에서 여러분의 사용자 정의 데이터셋으로 YOLOv8 모델을 훈련하는 방법. -

- -## Ultralytics YOLO로 훈련하는 이유? - -YOLOv8의 훈련 모드를 선택하는 데는 몇 가지 설득력 있는 이유가 있습니다: - -- **효율성:** 단일 GPU 설정이든 여러 GPU로 확장하든, 하드웨어를 최대한 활용하세요. -- **다양성:** COCO, VOC, ImageNet과 같은 기존의 데이터셋뿐만 아니라 사용자 정의 데이터셋으로도 훈련 가능. -- **사용자 친화적:** 간단하면서도 강력한 CLI 및 Python 인터페이스를 통한 직관적인 훈련 경험 제공. -- **하이퍼파라미터 유연성:** 모델의 성능을 미세 조정할 수 있는 다양하게 구성 가능한 하이퍼파라미터. - -### 훈련 모드의 주요 기능 - -다음은 YOLOv8의 훈련 모드의 주요 기능 중 일부입니다: - -- **자동 데이터셋 다운로드:** COCO, VOC, ImageNet과 같은 표준 데이터셋들은 첫 사용시 자동으로 다운로드됩니다. -- **다중 GPU 지원:** 여러 GPU에 걸쳐 훈련 노력을 빠르게 확대하기 위한 규모있는 훈련 지원. -- **하이퍼파라미터 구성:** YAML 구성 파일이나 CLI 인수를 통해 하이퍼파라미터 수정 가능. -- **시각화 및 모니터링:** 훈련 지표의 실시간 추적 및 학습 과정의 시각화로 더 나은 인사이트 제공. - -!!! Tip "팁" - - * YOLOv8 데이터셋들은 첫 사용시 자동으로 다운로드됩니다, 예: `yolo train data=coco.yaml` - -## 사용 예제 - -COCO128 데이터셋에서 YOLOv8n을 이미지 크기 640으로 100 에포크 동안 훈련합니다. 훈련 장치는 `device` 인수를 사용하여 지정할 수 있습니다. 인수를 전달하지 않으면 사용 가능한 경우 GPU `device=0`이, 아니면 `device=cpu`가 사용됩니다. 전체 훈련 인수 목록은 아래 Arguments 섹션을 참조하세요. - -!!! Example "단일 GPU 및 CPU 훈련 예제" - - 장치는 자동으로 결정됩니다. GPU가 사용 가능하면 사용되며, 그렇지 않으면 CPU에서 훈련이 시작됩니다. - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델을 로드하세요. - model = YOLO('yolov8n.yaml') # YAML에서 새 모델 구축 - model = YOLO('yolov8n.pt') # 사전 훈련된 모델 로드 (훈련을 위해 권장됨) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML에서 구축 및 가중치 전달 - - # 모델을 훈련합니다. - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash - # YAML에서 새 모델을 구축하고 처음부터 훈련을 시작하세요. - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # 사전 훈련된 *.pt 모델에서 훈련을 시작하세요. - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # YAML에서 새 모델을 구축하고, 사전 훈련된 가중치를 전달하고 훈련을 시작하세요. - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### 다중 GPU 훈련 - -다중 GPU 훈련을 통해 사용 가능한 하드웨어 리소스를 더 효율적으로 활용할 수 있습니다. 이 기능은 Python API와 명령행 인터페이스 모두를 통해 사용할 수 있습니다. 다중 GPU 훈련을 활성화하려면 사용하려는 GPU 장치 ID를 지정하세요. - -!!! Example "다중 GPU 훈련 예제" - - 2개의 GPU, CUDA 장치 0과 1로 훈련하려면 다음 명령을 사용하세요. 필요에 따라 추가 GPU로 확장하세요. - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델을 로드하세요. - model = YOLO('yolov8n.pt') # 사전 훈련된 모델 로드 (훈련 추천됨) - - # 2개의 GPU로 모델을 훈련합니다. - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # 사전 훈련된 *.pt 모델로부터 시작하여 GPU 0과 1을 사용하여 훈련합니다. - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### Apple M1 및 M2 MPS 훈련 - -Ultralytics YOLO 모델에 통합된 Apple M1 및 M2 칩들에 대한 지원을 통해 Apple의 강력한 Metal Performance Shaders (MPS) 프레임워크를 활용하여 장치에서 모델을 훈련할 수 있습니다. MPS는 Apple 사용자 지정 실리콘에서 컴퓨터 및 이미지 처리 작업을 실행하는 고성능 방법을 제공합니다. - -Apple M1 및 M2 칩에서 훈련을 활성화하려면, 훈련 과정을 시작할 때 장치로 'mps'를 지정해야 합니다. 아래는 Python 및 명령행 인터페이스를 통해 이를 수행할 수 있는 예제입니다: - -!!! Example "MPS 훈련 예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델을 로드하세요. - model = YOLO('yolov8n.pt') # 사전 훈련된 모델 로드 (훈련 추천됨) - - # 2개의 GPU로 모델을 훈련합니다. - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # 사전 훈련된 *.pt 모델을 사용하여 mps 장치에서 훈련을 시작합니다. - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -M1/M2 칩의 연산력을 활용하면서 훈련 작업을 더 효율적으로 처리할 수 있습니다. 자세한 지침과 고급 설정 옵션을 원하신다면 [PyTorch MPS 문서](https://pytorch.org/docs/stable/notes/mps.html)를 참조하세요. - -### 중단된 훈련 이어나가기 - -이전에 저장된 상태에서 훈련을 이어나가는 기능은 딥러닝 모델을 다룰 때 중요한 기능입니다. 이 기능은 훈련 과정이 예기치 않게 중단되었거나 새로운 데이터로 모델을 계속 훈련하거나 더 많은 에포크 동안 훈련을 진행하고 싶을 때 유용합니다. - -훈련을 재개할 때, Ultralytics YOLO는 마지막으로 저장된 모델에서 가중치를 로드하고 옵티마이저 상태, 학습률 스케줄러, 에포크 번호도 복원합니다. 이를 통해 훈련 과정을 중단된 지점부터 이어갈 수 있습니다. - -Ultralytics YOLO에서 `train` 메서드 호출 시 `resume` 인수를 `True`로 설정하고 부분적으로 훈련된 모델 가중치가 포함된 `.pt` 파일의 경로를 지정하면 훈련을 이어나갈 수 있습니다. diff --git a/docs/ko/modes/val.md b/docs/ko/modes/val.md deleted file mode 100644 index 2ebaf771f0b..00000000000 --- a/docs/ko/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: YOLOv8 모델 검증 가이드. 검증 설정 및 측정 항목을 사용하여 YOLO 모델의 성능을 평가하는 방법에 대해 알아보세요. Python 및 CLI 예제가 포함되어 있습니다. -keywords: Ultralytics, YOLO 문서, YOLOv8, 검증, 모델 평가, 하이퍼파라미터, 정확도, 측정 항목, Python, CLI ---- - -# Ultralytics YOLO로 모델 검증하기 - -Ultralytics YOLO 생태계 및 통합 - -## 도입 - -검증은 훈련된 모델의 품질을 평가할 수 있게 해주는 기계학습 파이프라인에서 중요한 단계입니다. Ultralytics YOLOv8의 Val 모드는 모델의 객체 탐지 성능을 평가하기 위한 강력한 도구 및 측정 항목 모음을 제공합니다. 이 가이드는 Val 모드를 효과적으로 사용하여 모델의 정확성과 신뢰성을 보장하는 방법에 대한 완벽한 리소스 역할을 합니다. - -## 왜 Ultralytics YOLO로 검증을 해야 할까요? - -YOLOv8의 Val 모드를 사용하는 이점은 다음과 같습니다: - -- **정밀도:** mAP50, mAP75, mAP50-95와 같은 정확한 측정 항목으로 모델을 종합적으로 평가합니다. -- **편의성:** 훈련 설정을 기억하는 내장 기능을 활용하여 검증 절차를 단순화합니다. -- **유연성:** 같거나 다른 데이터셋과 이미지 크기로 모델을 검증할 수 있습니다. -- **하이퍼파라미터 튜닝:** 검증 측정 항목을 사용하여 모델의 성능을 더 잘 조율합니다. - -### Val 모드의 주요 기능 - -YOLOv8의 Val 모드가 제공하는 주목할 만한 기능들은 다음과 같습니다: - -- **자동화된 설정:** 모델은 훈련 구성을 기억하여 간단하게 검증이 가능합니다. -- **멀티-메트릭 지원:** 다양한 정확도 측정 항목을 기반으로 모델을 평가합니다. -- **CLI 및 Python API:** 검증을 위해 명령 줄 인터페이스 또는 Python API 중에서 선택할 수 있습니다. -- **데이터 호환성:** 훈련 단계에서 사용된 데이터셋과 사용자 정의 데이터셋 모두와 원활하게 작동합니다. - -!!! Tip "팁" - - * YOLOv8 모델은 훈련 설정을 자동으로 기억하므로 `yolo val model=yolov8n.pt`나 `model('yolov8n.pt').val()`만으로 같은 이미지 크기와 원본 데이터셋에서 쉽게 검증할 수 있습니다. - -## 사용 예제 - -COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `모델`은 훈련 `데이터`와 인자를 모델 속성으로 유지하므로 인자가 필요 없습니다. 전체 내보내기 인자 목록은 아래의 인자 섹션을 참고하세요. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 로드 - model = YOLO('yolov8n.pt') # 공식 모델을 로드합니다 - model = YOLO('path/to/best.pt') # 사용자 정의 모델을 로드합니다 - - # 모델 검증 - metrics = model.val() # 인자가 필요 없음, 데이터셋과 설정이 기억됩니다 - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 각 카테고리의 map50-95가 포함된 목록 - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # 공식 모델 검증 - yolo detect val model=path/to/best.pt # 사용자 정의 모델 검증 - ``` - -## 인자 - -YOLO 모델의 검증 설정은 모델의 성능을 검증 데이터셋에서 평가하기 위한 다양한 하이퍼파라미터 및 구성을 의미합니다. 이러한 설정은 모델의 성능, 속도, 정확성에 영향을 미칠 수 있습니다. 일반적인 YOLO 검증 설정에는 배치 크기, 훈련 중 검증이 수행되는 빈도 및 모델 성능을 평가하기 위해 사용되는 측정 항목이 포함됩니다. 검증 과정에 영향을 줄 수 있는 다른 요소로는 검증 데이터셋의 크기와 구성 및 모델이 사용되는 구체적인 작업이 있습니다. 모델이 검증 데이터셋에서 잘 수행되고 있고 과적합을 감지하고 방지하기 위해서는 이러한 설정을 신중하게 조정하고 실험하는 것이 중요합니다. - -| Key | Value | Description | -|---------------|---------|---------------------------------------------------| -| `data` | `None` | 데이터 파일 경로 예: coco128.yaml | -| `imgsz` | `640` | 입력 이미지의 크기를 정수로 지정 | -| `batch` | `16` | 배치 당 이미지 수 (-1은 AutoBatch에 해당) | -| `save_json` | `False` | 결과를 JSON 파일로 저장 | -| `save_hybrid` | `False` | 라벨의 하이브리드 버전(라벨 + 추가 예측)을 저장 | -| `conf` | `0.001` | 탐지를 위한 객체 신뢰도 임계값 | -| `iou` | `0.6` | NMS 용 교차 영역과 합친 영역(IoU)의 임계값 | -| `max_det` | `300` | 이미지 당 최대 탐지 개수 | -| `half` | `True` | 반정밀도(FP16) 사용 | -| `device` | `None` | 사용할 장치 예: cuda의 device=0/1/2/3이나 device=cpu | -| `dnn` | `False` | ONNX 추론에 OpenCV DNN 사용 | -| `plots` | `False` | 훈련 중 플롯 표시 | -| `rect` | `False` | 최소한의 패딩을 위해 각 배치가 직사각형 val로 조정됨 | -| `split` | `val` | 검증을 위해 사용되는 데이터셋 분할, 예: 'val', 'test', 혹은 'train' | -| diff --git a/docs/ko/quickstart.md b/docs/ko/quickstart.md deleted file mode 100644 index 4490b8c2f35..00000000000 --- a/docs/ko/quickstart.md +++ /dev/null @@ -1,207 +0,0 @@ ---- -comments: true -description: pip, conda, git 및 Docker를 사용하여 Ultralytics을 설치하는 다양한 방법을 탐색해 보세요. Ultralytics을 명령줄 인터페이스 또는 Python 프로젝트 내에서 사용하는 방법을 알아보세요. -keywords: Ultralytics 설치, pip를 이용한 Ultralytics 설치, Docker를 이용한 Ultralytics 설치, Ultralytics 명령줄 인터페이스, Ultralytics Python 인터페이스 ---- - -## Ultralytics 설치하기 - -Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공합니다. `ultralytics` pip 패키지를 이용해 가장 안정적인 최신 버전의 YOLOv8을 설치하거나 [Ultralytics GitHub 저장소](https://github.com/ultralytics/ultralytics)를 복제하여 가장 최신 버전을 받아볼 수 있습니다. Docker를 이용하면 패키지를 로컬에 설치하지 않고 격리된 컨테이너에서 실행할 수 있습니다. - -!!! Example "설치하기" - - === "Pip 설치하기 (권장)" - pip을 사용하여 `ultralytics` 패키지를 설치하거나, `pip install -U ultralytics`를 실행하여 기존 설치를 업데이트하세요. Python Package Index(PyPI)에서 `ultralytics` 패키지에 대한 자세한 내용을 확인하세요: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). - - [![PyPI 버전](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![다운로드](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # PyPI에서 ultralytics 패키지 설치하기 - pip install ultralytics - ``` - - GitHub [저장소](https://github.com/ultralytics/ultralytics)에서 직접 `ultralytics` 패키지를 설치할 수도 있습니다. 최신 개발 버전이 필요한 경우 유용할 수 있습니다. 시스템에 Git 명령줄 도구가 설치되어 있는지 확인하세요. `@main` 명령어는 `main` 브랜치를 설치하며, `@my-branch`로 변경하거나 `main` 브랜치를 기본으로 사용하려면 아예 제거하면 됩니다. - - ```bash - # GitHub에서 ultralytics 패키지 설치하기 - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "Conda 설치하기" - pip의 대안으로 사용할 수 있는 또 다른 패키지 관리자인 Conda를 통해서도 설치할 수 있습니다. [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics)에서 Anaconda에 대한 자세한 정보를 확인하세요. Conda 패키지를 업데이트하는 Ultralytics feedstock 저장소는 [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/)에 있습니다. - - - [![Conda 레시피](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda 다운로드](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda 버전](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda 플랫폼](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # conda를 사용하여 ultralytics 패키지 설치하기 - conda install -c conda-forge ultralytics - ``` - - !!! Note "노트" - - CUDA 환경에서 설치하는 경우 일반적으로 `ultralytics`, `pytorch` 및 `pytorch-cuda`를 동일한 명령어로 설치하여 Conda 패키지 관리자가 충돌을 해결하도록 하거나, 필요한 경우 CPU 전용 `pytorch` 패키지를 덮어쓸 수 있도록 `pytorch-cuda`를 마지막에 설치하는 것이 좋습니다. - ```bash - # Conda를 사용하여 모든 패키지 함께 설치하기 - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Conda Docker 이미지 - - Ultralytics Conda Docker 이미지들도 [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics)에서 사용할 수 있습니다. 이 이미지들은 [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/)를 기반으로 하며, Conda 환경에서 `ultralytics`를 사용하기 위한 간단한 방법입니다. - - ```bash - # 이미지 이름을 변수로 설정하기 - t=ultralytics/ultralytics:latest-conda - - # Docker Hub에서 최신 ultralytics 이미지 가져오기 - sudo docker pull $t - - # GPU 지원으로 ultralytics 이미지를 컨테이너에서 실행하기 - sudo docker run -it --ipc=host --gpus all $t # 모든 GPU 사용 - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # 특정 GPU 지정 - ``` - - - === "Git 복제하기" - 개발에 기여하거나 최신 소스 코드를 실험해 보고 싶다면 `ultralytics` 저장소를 복제하세요. 복제한 후 해당 디렉토리로 이동하여 pip을 이용해 편집 가능 모드 `-e`로 패키지를 설치합니다. - ```bash - # ultralytics 저장소 복제하기 - git clone https://github.com/ultralytics/ultralytics - - # 복제한 디렉토리로 이동하기 - cd ultralytics - - # 개발을 위한 편집 가능 모드로 패키지 설치하기 - pip install -e . - ``` - - === "Docker 사용하기" - - Docker를 사용하면 `ultralytics` 패키지를 격리된 컨테이너에서 원활하게 실행할 수 있으며, 다양한 환경에서 일관된 성능을 보장합니다. [Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics)의 공식 `ultralytics` 이미지 중 하나를 선택함으로써 로컬 설치의 복잡함을 피하고 검증된 작업 환경에 접근할 수 있습니다. Ultralytics은 서로 다른 플랫폼과 사용 사례에 대해 높은 호환성과 효율성을 제공하기 위해 5가지 주요 Docker 이미지를 제공합니다: - - Docker Pulls - - - **Dockerfile:** 트레이닝에 추천되는 GPU 이미지입니다. - - **Dockerfile-arm64:** Raspberry Pi와 같은 ARM64 기반 플랫폼에 배포하기에 최적화된 ARM64 아키텍처용입니다. - - **Dockerfile-cpu:** GPU가 없는 환경에서 인퍼런스에 적합한 Ubuntu 기반 CPU 전용 버전입니다. - - **Dockerfile-jetson:** NVIDIA Jetson 장치에 최적화된 GPU 지원을 통합한 버전입니다. - - **Dockerfile-python:** 가볍게 애플리케이션을 위해 필요한 종속성과 Python만 있는 최소한의 이미지입니다. - - **Dockerfile-conda:** Miniconda3를 기반으로 하며 ultralytics 패키지의 conda 설치를 포함하고 있습니다. - - 아래의 명령어로 최신 이미지를 받고 실행할 수 있습니다: - - ```bash - # 이미지 이름을 변수로 설정하기 - t=ultralytics/ultralytics:latest - - # Docker Hub에서 최신 ultralytics 이미지 가져오기 - sudo docker pull $t - - # GPU 지원으로 ultralytics 이미지를 컨테이너에서 실행하기 - sudo docker run -it --ipc=host --gpus all $t # 모든 GPU 사용 - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # 특정 GPU 지정 - ``` - - 위 명령어는 최신 `ultralytics` 이미지로 Docker 컨테이너를 초기화합니다. `-it` 플래그는 pseudo-TTY를 할당하고 표준 입력을 유지하여 컨테이너와 상호 작용할 수 있게 해줍니다. `--ipc=host` 플래그는 프로세스 간 메모리 공유에 필요한 IPC(Inter-Process Communication) 네임스페이스를 호스트로 설정합니다. `--gpus all` 플래그는 컨테이너 내에서 사용 가능한 모든 GPU에 대한 접근을 활성화하는데, GPU 계산이 필요한 작업에 중요합니다. - - 참고: 로컬 기계의 파일을 컨테이너 내에서 작업하기 위해서는 로컬 디렉토리를 컨테이너에 마운트하는 데 Docker 볼륨을 사용하세요: - - ```bash - # 로컬 디렉토리를 컨테이너 내부 디렉토리에 마운트하기 - sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t - ``` - - `/path/on/host`를 로컬 기계의 디렉토리 경로로, `/path/in/container`를 컨테이너 내부에서 원하는 경로로 변경하여 접근할 수 있게 하세요. - - Docker 사용에 대한 고급 기능은 [Ultralytics Docker 가이드](https://docs.ultralytics.com/guides/docker-quickstart/)에서 더 탐구해보세요. - -`ultralytics`의 종속성 목록은 [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml) 파일에서 확인할 수 있습니다. 위 예제에서는 모든 필요한 종속성을 설치합니다. - -

-
- -
- Watch: Ultralytics YOLO Quick Start Guide -

- -!!! Tip "팁" - - PyTorch 설치 요구사항은 운영 체제와 CUDA 요구사항에 따라 다르므로 [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)의 지침에 따라 PyTorch를 먼저 설치하는 것이 권장됩니다. - - - PyTorch 설치 지침 - - -## 명령줄 인터페이스(CLI)로 Ultralytics 사용하기 - -Ultralytics 명령줄 인터페이스(CLI)는 Python 환경이 필요 없이 단일 라인 명령어를 통해 작업을 쉽게 실행할 수 있도록 합니다. CLI는 커스터마이징이나 Python 코드가 필요 없습니다. `yolo` 명령어를 이용해 터미널에서 모든 작업을 실행할 수 있습니다. 명령줄에서 YOLOv8을 사용하는 방법에 대해 더 알아보려면 [CLI 가이드](/../usage/cli.md)를 참고하세요. - -!!! Example "예제" - - === "문법" - - Ultralytics `yolo` 명령어는 다음과 같은 문법을 사용합니다: - ```bash - yolo TASK MODE ARGS - - 여기서 TASK (선택적)은 [detect, segment, classify] 중 하나 - MODE (필수)는 [train, val, predict, export, track] 중 하나 - ARGS (선택적)은 'imgsz=320'과 같이 기본값을 재정의하는 'arg=value' 쌍을 아무 개수나 지정할 수 있습니다. - ``` - 모든 ARGS는 전체 [구성 가이드](/../usage/cfg.md)에서 또는 `yolo cfg`로 확인할 수 있습니다 - - === "Train" - - 10 에포크 동안 초기 학습률 0.01로 감지 모델을 훈련합니다. - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "Predict" - - 이전 훈련된 세분화 모델을 사용하여 이미지 크기 320으로 YouTube 동영상을 예측합니다: - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "Val" - - 배치 크기 1와 이미지 크기 640으로 이전 훈련된 감지 모델을 검증합니다: - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "Export" - - YOLOv8n 분류 모델을 ONNX 형식으로 내보냅니다. 이미지 크기는 224x128입니다 (TASK 필요 없음). - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "특별" - - 버전 확인, 설정 보기, 검사 실행 등을 위한 특별 명령어를 실행하세요: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "주의" - - 모든 인수는 `arg=val`쌍으로 전달되어야 하며, 각 쌍 사이에는 공백으로 구분해야 합니다. 인수 접두사로 `--`를 사용하거나 인수 사이에 쉼표 `,`를 사용해서는 안 됩니다. - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`   ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25`   ❌ - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25`   ❌ - -[CLI 가이드](/../usage/cli.md){ .md-button } diff --git a/docs/ko/tasks/classify.md b/docs/ko/tasks/classify.md deleted file mode 100644 index 24b60476355..00000000000 --- a/docs/ko/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: YOLOv8 분류 모델에 대한 이미지 분류 정보를 알아보세요. 사전 훈련된 모델 목록과 모델 학습, 검증, 예측, 내보내기 방법에 대한 자세한 정보를 확인하실 수 있습니다. -keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8n-cls, 학습, 검증, 예측, 모델 내보내기 ---- - -# 이미지 분류 - -Image classification examples - -이미지 분류는 가장 단순한 세 가지 작업 중 하나로, 전체 이미지를 미리 정의된 클래스 집합 중 하나로 분류하는 작업입니다. - -이미지 분류기의 출력은 단일 클래스 라벨과 신뢰도 점수입니다. 이미지 분류는 클래스의 이미지만 알고 싶고 해당 클래스의 객체가 어디에 위치하고 있는지 또는 그 정확한 형태가 무엇인지 알 필요가 없을 때 유용합니다. - -!!! Tip "팁" - - YOLOv8 분류 모델은 `-cls` 접미사를 사용합니다. 예: `yolov8n-cls.pt`이며, [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)에서 사전 훈련되었습니다. - -## [모델](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -여기에는 사전 훈련된 YOLOv8 분류 모델이 표시됩니다. Detect, Segment 및 Pose 모델은 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에서 사전 훈련되고, 분류 모델은 [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) 데이터셋에서 사전 훈련됩니다. - -[모델](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)은 첫 사용 시 최신 Ultralytics [릴리스](https://github.com/ultralytics/assets/releases)에서 자동으로 다운로드됩니다. - -| 모델 | 크기
(픽셀) | 정확도
top1 | 정확도
top5 | 속도
CPU ONNX
(ms) | 속도
A100 TensorRT
(ms) | 매개변수
(M) | FLOPs
(B) at 640 | -|----------------------------------------------------------------------------------------------|-----------------|------------------|------------------|-----------------------------|----------------------------------|------------------|--------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- **정확도** 값은 [ImageNet](https://www.image-net.org/) 데이터셋 검증 세트에서의 모델 정확도입니다. -
[ImageNet](https://www.image-net.org/)에서 재현 가능합니다: `yolo val classify data=path/to/ImageNet device=0` -- **속도**는 [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) 인스턴스를 사용해 ImageNet 검증 이미지들의 평균 속도입니다. -
[ImageNet](https://www.image-net.org/)에서 재현 가능합니다: `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` - -## 학습 - -YOLOv8n-cls 모델을 MNIST160 데이터셋에서 100 에포크 동안 학습시키고 이미지 크기는 64로 설정합니다. 가능한 모든 인자는 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 불러오기 - model = YOLO('yolov8n-cls.yaml') # YAML에서 새 모델 구축 - model = YOLO('yolov8n-cls.pt') # 사전 훈련된 모델 불러오기 (학습용 추천) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # YAML로 구축하고 가중치 전송 - - # 모델 학습 - result = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # YAML에서 새 모델을 구축하고 처음부터 학습 시작 - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # 사전 훈련된 *.pt 모델에서 학습 시작 - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # YAML에서 새 모델을 구축하고 사전 훈련된 가중치를 전송한 뒤 학습 시작 - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### 데이터셋 형식 - -YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/classify/index.md)에서 자세히 확인할 수 있습니다. - -## 검증 - -학습된 YOLOv8n-cls 모델의 정확도를 MNIST160 데이터셋에서 검증합니다. `model`은 모델 속성으로 훈련 시 `data` 및 인자를 유지하므로 추가 인자를 전달할 필요가 없습니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 불러오기 - model = YOLO('yolov8n-cls.pt') # 공식 모델 불러오기 - model = YOLO('path/to/best.pt') # 사용자 모델 불러오기 - - # 모델 검증 - metrics = model.val() # 추가 인자 불필요, 데이터셋 및 설정 기억함 - metrics.top1 # top1 정확도 - metrics.top5 # top5 정확도 - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # 공식 모델 검증 - yolo classify val model=path/to/best.pt # 사용자 모델 검증 - ``` - -## 예측 - -학습된 YOLOv8n-cls 모델을 사용하여 이미지에 대한 예측을 실행합니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 불러오기 - model = YOLO('yolov8n-cls.pt') # 공식 모델 불러오기 - model = YOLO('path/to/best.pt') # 사용자 모델 불러오기 - - # 예측 실행 - results = model('https://ultralytics.com/images/bus.jpg') # 이미지에 대한 예측 실행 - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # 공식 모델로 예측 실행 - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # 사용자 모델로 예측 실행 - ``` - -자세한 `predict` 모드 정보는 [예측](https://docs.ultralytics.com/modes/predict/) 페이지에서 확인하세요. - -## 내보내기 - -YOLOv8n-cls 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 불러오기 - model = YOLO('yolov8n-cls.pt') # 공식 모델 불러오기 - model = YOLO('path/to/best.pt') # 사용자 훈련 모델 불러오기 - - # 모델 내보내기 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # 공식 모델 내보내기 - yolo export model=path/to/best.pt format=onnx # 사용자 훈련 모델 내보내기 - ``` - -아래 표에 사용 가능한 YOLOv8-cls 내보내기 형식이 나와 있습니다. 내보낸 모델에서 바로 예측하거나 검증할 수 있습니다. 즉, `yolo predict model=yolov8n-cls.onnx`를 사용할 수 있습니다. 내보내기가 완료된 후 모델에 대한 사용 예제들이 표시됩니다. - -| 형식 | `format` 인자 | 모델 | 메타데이터 | 인자 | -|--------------------------------------------------------------------|---------------|-------------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -자세한 `export` 정보는 [내보내기](https://docs.ultralytics.com/modes/export/) 페이지에서 확인하세요. diff --git a/docs/ko/tasks/detect.md b/docs/ko/tasks/detect.md deleted file mode 100644 index 68646203c36..00000000000 --- a/docs/ko/tasks/detect.md +++ /dev/null @@ -1,184 +0,0 @@ ---- -comments: true -description: Ultralytics 공식 YOLOv8 문서입니다. 모델 훈련, 검증, 예측 및 다양한 형식으로 모델 내보내기 방법을 배우십시오. 세부적인 성능 통계를 포함합니다. -keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련, 검증, 예측, 모델 내보내기, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# 객체 감지 - -객체 감지 예제 - -객체 감지는 이미지 또는 비디오 스트림 내의 객체의 위치와 클래스를 식별하는 작업입니다. - -객체 감지기의 출력은 이미지 속 객체를 내포하는 경계 상자(bounding box) 세트와 각 상자에 대한 클래스 레이블과 신뢰도 점수를 포함합니다. 장면 내 관심 객체를 식별해야 하지만 객체의 정확한 위치나 정확한 모양을 알 필요가 없을 때 객체 감지가 좋은 선택입니다. - -

-
- -
- 시청하기: 사전 훈련된 Ultralytics YOLOv8 모델로 객체 감지하기. -

- -!!! Tip "팁" - - YOLOv8 Detect 모델들은 기본 YOLOv8 모델이며 예를 들어 `yolov8n.pt` 이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에서 사전 훈련되었습니다. - -## [모델](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -여기서는 YOLOv8 사전 훈련된 Detect 모델을 나타냅니다. Detect, Segment, 및 Pose 모델은 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에서, Classify 모델은 [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) 데이터셋에서 사전 훈련되었습니다. - -[모델](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)은 첫 사용 시 Ultralytics의 최신 [릴리즈](https://github.com/ultralytics/assets/releases)에서 자동으로 다운로드됩니다. - -| 모델 | 크기
(픽셀) | mAPval
50-95 | 속도
CPU ONNX
(ms) | 속도
A100 TensorRT
(ms) | 파라미터
(M) | FLOPs
(B) | -|--------------------------------------------------------------------------------------|-----------------|----------------------|-----------------------------|----------------------------------|------------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- **mAPval** 값은 [COCO val2017](https://cocodataset.org) 데이터셋에서 단일 모델 단일 스케일을 사용한 값입니다. -
[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터와 `yolo val detect data=coco.yaml device=0` 명령으로 재현할 수 있습니다. -- **속도**는 [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) 인스턴스를 사용해 COCO val 이미지들을 평균한 것입니다. -
[COCO128](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco128.yaml) 데이터와 `yolo val detect data=coco128.yaml batch=1 device=0|cpu` 명령으로 재현할 수 있습니다. - -## 훈련 - -COCO128 데이터셋에서 이미지 크기 640으로 YOLOv8n 모델을 100 에포크 동안 훈련합니다. 가능한 모든 인수에 대한 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 로드하기 - model = YOLO('yolov8n.yaml') # YAML에서 새 모델을 빌드합니다. - model = YOLO('yolov8n.pt') # 사전 훈련된 모델을 로드합니다(훈련을 위해 권장됩니다). - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML에서 빌드하고 가중치를 전달합니다. - - # 모델 훈련하기 - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAML에서 새 모델을 빌드하고 처음부터 훈련을 시작합니다. - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # 사전 훈련된 *.pt 모델로부터 훈련을 시작합니다. - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # YAML에서 새 모델을 빌드하고, 사전 훈련된 가중치를 전달한 후 훈련을 시작합니다. - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### 데이터셋 형식 - -YOLO 감지 데이터셋 형식은 [데이터셋 가이드](../../../datasets/detect/index.md)에서 자세히 볼 수 있습니다. 다른 형식(예: COCO 등)의 기존 데이터셋을 YOLO 형식으로 변환하려면 Ultralytics의 [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) 도구를 사용하십시오. - -## 검증 - -COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `model`은 훈련 시의 `data`와 인수를 모델 속성으로 보존하기 때문에 인수를 전달할 필요가 없습니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 로드하기 - model = YOLO('yolov8n.pt') # 공식 모델을 로드합니다. - model = YOLO('path/to/best.pt') # 사용자 정의 모델을 로드합니다. - - # 모델 검증하기 - metrics = model.val() # 데이터셋과 설정을 기억하니 인수는 필요 없습니다. - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 각 카테고리의 map50-95가 포함된 리스트입니다. - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # 공식 모델 검증하기 - yolo detect val model=path/to/best.pt # 사용자 정의 모델 검증하기 - ``` - -## 예측 - -훈련된 YOLOv8n 모델을 사용하여 이미지에 대한 예측을 수행합니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 로드하기 - model = YOLO('yolov8n.pt') # 공식 모델을 로드합니다. - model = YOLO('path/to/best.pt') # 사용자 정의 모델을 로드합니다. - - # 모델로 예측하기 - results = model('https://ultralytics.com/images/bus.jpg') # 이미지에 대해 예측합니다. - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # 공식 모델로 예측하기 - yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # 사용자 정의 모델로 예측하기 - ``` - -전체 'predict' 모드 세부 사항은 [Predict](https://docs.ultralytics.com/modes/predict/) 페이지에서 확인하세요. - -## 내보내기 - -YOLOv8n 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 로드하기 - model = YOLO('yolov8n.pt') # 공식 모델을 로드합니다. - model = YOLO('path/to/best.pt') # 사용자 정의 모델을 로드합니다. - - # 모델 내보내기 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # 공식 모델 내보내기 - yolo export model=path/to/best.pt format=onnx # 사용자 정의 모델 내보내기 - ``` - -사용 가능한 YOLOv8 내보내기 형식은 아래 표에 나와 있습니다. 내보내기 완료 후 사용 예시는 모델에 대해 보여줍니다. - -| 형식 | `format` 인수 | 모델 | 메타데이터 | 인수 | -|--------------------------------------------------------------------|---------------|---------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -전체 'export' 세부 사항은 [Export](https://docs.ultralytics.com/modes/export/) 페이지에서 확인하세요. diff --git a/docs/ko/tasks/index.md b/docs/ko/tasks/index.md deleted file mode 100644 index 5864a0fdd4e..00000000000 --- a/docs/ko/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: YOLOv8을 사용하여 수행할 수 있는 컴퓨터 비전 작업의 기초인 탐지, 세분화, 분류 및 자세 추정에 대해 알아보세요. AI 프로젝트에서의 그 용도를 이해하세요. -keywords: Ultralytics, YOLOv8, 탐지, 세분화, 분류, 자세 추정, AI 프레임워크, 컴퓨터 비전 작업 ---- - -# Ultralytics YOLOv8 작업 - -
-Ultralytics YOLO 지원 작업 - -YOLOv8는 여러 컴퓨터 비전 **작업**을 지원하는 AI 프레임워크입니다. 이 프레임워크는 [탐지](detect.md), [세분화](segment.md), [분류](classify.md), 그리고 [자세](pose.md) 추정을 수행하는 데 사용될 수 있습니다. 각각의 작업은 서로 다른 목적과 사용 사례를 가지고 있습니다. - -!!! Note "노트" - - 🚧 다국어 문서화 작업이 진행 중에 있으며, 더 나은 문서를 제공하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏 - -

-
- -
- 보기: Ultralytics YOLO 작업 탐색: 객체 탐지, 세분화, 추적, 자세 추정. -

- -## [탐지](detect.md) - -탐지는 YOLOv8이 지원하는 기본 작업입니다. 이미지 또는 비디오 프레임에서 객체를 탐지하고 주변에 경계 상자를 그리는 것을 포함합니다. 탐지된 객체들은 그 특징에 따라 다른 카테고리로 분류됩니다. YOLOv8은 단일 이미지나 비디오 프레임에서 여러 객체를 정확하고 빠르게 탐지할 수 있습니다. - -[탐지 예시](detect.md){ .md-button } - -## [세분화](segment.md) - -세분화는 이미지를 내용에 기반하여 다른 영역으로 나누는 작업입니다. 각 영역은 내용에 따라 레이블이 지정됩니다. 이 작업은 이미지 세분화와 의료 영상과 같은 응용 분야에 유용합니다. YOLOv8는 U-Net 아키텍처의 변형을 사용하여 세분화를 수행합니다. - -[세분화 예시](segment.md){ .md-button } - -## [분류](classify.md) - -분류는 이미지를 다른 카테고리로 분류하는 작업입니다. YOLOv8는 이미지의 내용을 바탕으로 이미지 분류에 사용될 수 있습니다. 이는 EfficientNet 아키텍처의 변형을 사용하여 분류 작업을 수행합니다. - -[분류 예시](classify.md){ .md-button } - -## [자세](pose.md) - -자세/키포인트 탐지는 이미지나 비디오 프레임에서 특정 점들을 탐지하는 작업입니다. 이들 점은 키포인트로 불리며, 움직임 추적이나 자세 추정에 사용됩니다. YOLOv8은 이미지나 비디오 프레임의 키포인트를 정확하고 빠르게 탐지할 수 있습니다. - -[자세 예시](pose.md){ .md-button } - -## 결론 - -YOLOv8은 탐지, 세분화, 분류, 키포인트 탐지 등 다양한 작업을 지원합니다. 각각의 작업은 다른 목적과 사용 사례를 가지고 있습니다. 이러한 작업의 차이점을 이해함으로써, 컴퓨터 비전 응용 프로그램에 적합한 작업을 선택할 수 있습니다. diff --git a/docs/ko/tasks/pose.md b/docs/ko/tasks/pose.md deleted file mode 100644 index d83873107f0..00000000000 --- a/docs/ko/tasks/pose.md +++ /dev/null @@ -1,185 +0,0 @@ ---- -comments: true -description: Ultralytics YOLOv8을 사용하여 포즈 추정 작업을 수행하는 방법을 알아보세요. 미리 학습된 모델을 찾고, 학습, 검증, 예측, 내보내기 등을 진행하는 방법을 배울 수 있습니다. -keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체 검출, 미리 학습된 모델, 기계 학습, 인공 지능 ---- - -# 포즈 추정 - -포즈 추정 예시 - -포즈 추정은 이미지 내 특정 점들의 위치를 식별하는 작업입니다. 이러한 점들은 보통 관절, 표식, 또는 기타 구별 가능한 특징으로 나타나는 키포인트입니다. 키포인트의 위치는 대개 2D `[x, y]` 또는 3D `[x, y, visible]` 좌표의 집합으로 표현됩니다. - -포즈 추정 모델의 출력은 이미지 속 객체 상의 키포인트를 나타내는 점들의 집합과 각 점의 신뢰도 점수를 포함합니다. 포즈 추정은 장면 속 객체의 구체적인 부분을 식별하고, 서로 관련된 위치를 파악해야 할 때 좋은 선택입니다. - -

-
- -
- 시청하기: Ultralytics YOLOv8을 이용한 포즈 추정. -

- -!!! Tip "팁" - - YOLOv8 _pose_ 모델은 `-pose` 접미사가 붙습니다. 예: `yolov8n-pose.pt`. 이 모델들은 [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 데이터셋으로 학습되었으며 포즈 추정 작업에 적합합니다. - -## [모델](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -여기에 표시된 YOLOv8 미리 학습된 포즈 모델을 확인하세요. Detect, Segment 및 Pose 모델은 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋으로 미리 학습되며, Classify 모델은 [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) 데이터셋으로 미리 학습됩니다. - -[모델](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)은 첫 사용 시 Ultralytics [릴리스](https://github.com/ultralytics/assets/releases)에서 자동으로 다운로드됩니다. - -| 모델 | 크기
(픽셀) | mAP포즈
50-95 | mAP포즈
50 | 속도
CPU ONNX
(ms) | 속도
A100 TensorRT
(ms) | 파라미터
(M) | FLOPs
(B) | -|------------------------------------------------------------------------------------------------------|-----------------|---------------------|------------------|-----------------------------|----------------------------------|------------------|-------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- **mAPval** 값은 [COCO Keypoints val2017](https://cocodataset.org) 데이터셋에서 단일 모델 단일 규모를 기준으로 합니다. -
재현하려면 `yolo val pose data=coco-pose.yaml device=0`을 사용하세요. -- **속도**는 [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) 인스턴스를 사용하여 COCO val 이미지 평균입니다. -
재현하려면 `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu`를 사용하세요. - -## 학습 - -COCO128-pose 데이터셋에서 YOLOv8-pose 모델 학습하기. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 불러오기 - model = YOLO('yolov8n-pose.yaml') # YAML에서 새로운 모델 구축 - model = YOLO('yolov8n-pose.pt') # 사전 학습된 모델 불러오기 (학습에 추천) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # YAML에서 구축하고 가중치 전달 - - # 모델 학습 - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAML에서 새로운 모델 구축하고 처음부터 학습 시작 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # 사전 학습된 *.pt 모델로부터 학습 시작 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # YAML에서 새로운 모델 구축하고 사전 학습된 가중치를 전달하여 학습 시작 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### 데이터셋 형식 - -YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가이드](../../../datasets/pose/index.md)에서 찾아볼 수 있습니다. 기존 데이터셋을 다른 형식(예: COCO 등)에서 YOLO 형식으로 변환하려면 Ultralytics의 [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) 도구를 사용하세요. - -## 검증 - -학습된 YOLOv8n-pose 모델의 정확도를 COCO128-pose 데이터셋에서 검증하기. 모델은 학습 `data` 및 인수를 모델 속성으로 유지하기 때문에 인수를 전달할 필요가 없습니다. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 불러오기 - model = YOLO('yolov8n-pose.pt') # 공식 모델 불러오기 - model = YOLO('path/to/best.pt') # 사용자 모델 불러오기 - - # 모델 검증 - metrics = model.val() # 데이터셋 및 설정을 기억하므로 인수 필요 없음 - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 각 범주의 map50-95를 포함하는 리스트 - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # 공식 모델 검증 - yolo pose val model=path/to/best.pt # 사용자 모델 검증 - ``` - -## 예측 - -학습된 YOLOv8n-pose 모델을 사용하여 이미지에 대한 예측 수행하기. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 불러오기 - model = YOLO('yolov8n-pose.pt') # 공식 모델 불러오기 - model = YOLO('path/to/best.pt') # 사용자 모델 불러오기 - - # 모델로 예측하기 - results = model('https://ultralytics.com/images/bus.jpg') # 이미지에서 예측 - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # 공식 모델로 예측 - yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # 사용자 모델로 예측 - ``` - -`predict` 모드의 전체 세부 정보는 [예측](https://docs.ultralytics.com/modes/predict/) 페이지에서 확인하세요. - -## 내보내기 - -YOLOv8n 포즈 모델을 ONNX, CoreML 등 다른 형식으로 내보내기. - -!!! Example "예제" - - === "Python" - - ```python - from ultralytics import YOLO - - # 모델 불러오기 - model = YOLO('yolov8n-pose.pt') # 공식 모델 불러오기 - model = YOLO('path/to/best.pt') # 사용자 학습 모델 불러오기 - - # 모델 내보내기 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # 공식 모델 내보내기 - yolo export model=path/to/best.pt format=onnx # 사용자 학습 모델 내보내기 - ``` - -YOLOv8-pose 내보내기 가능한 형식은 아래 표에 나열되어 있습니다. 내보낸 모델에서 직접 예측 또는 검증이 가능합니다, 예: `yolo predict model=yolov8n-pose.onnx`. 내보내기가 완료된 후 모델 사용 예제가 표시됩니다. - -| 형식 | `format` 인수 | 모델 | 메타데이터 | 인수 | -|--------------------------------------------------------------------|---------------|--------------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -`export`의 전체 세부 정보는 [내보내기](https://docs.ultralytics.com/modes/export/) 페이지에서 확인하세요. diff --git a/docs/ko/tasks/segment.md b/docs/ko/tasks/segment.md deleted file mode 100644 index d2f9acdefc9..00000000000 --- a/docs/ko/tasks/segment.md +++ /dev/null @@ -1,188 +0,0 @@ ---- -comments: true -description: Ultralytics YOLO를 이용한 인스턴스 세그멘테이션 모델 사용법 배우기. 훈련, 검증, 이미지 예측 및 모델 수출에 대한 지침. -keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터셋, 이미지 세그멘테이션, 객체 탐지, 모델 훈련, 모델 검증, 이미지 예측, 모델 수출 ---- - -# 인스턴스 세그멘테이션 - -인스턴스 세그멘테이션 예시 - -인스턴스 세그멘테이션은 객체 탐지를 한 단계 더 발전시켜 이미지에서 각각의 개별 객체를 식별하고 이미지의 나머지 부분에서 분리하는 기술입니다. - -인스턴스 세그멘테이션 모델의 출력은 이미지의 각 객체를 윤곽하는 마스크나 윤곽 선뿐만 아니라 각 객체에 대한 클래스 레이블과 신뢰도 점수로 구성됩니다. 객체들이 이미지 안에서 어디에 있는지 뿐만 아니라 그들의 정확한 형태가 무엇인지 알아야 할 때 인스턴스 세그멘테이션이 유용합니다. - -

-
- -
- 시청하기: Python에서 사전 훈련된 Ultralytics YOLOv8 모델로 세그멘테이션 실행. -

- -!!! Tip "팁" - - YOLOv8 Segment 모델은 '-seg' 접미사를 사용하며 즉, `yolov8n-seg.pt`와 같이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에 사전 훈련되어 있습니다. - -## [모델](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -여기에는 YOLOv8 사전 훈련 세그먼트 모델들이 나열되어 있습니다. Detect, Segment, Pose 모델들은 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에 사전 훈련되어 있으며, Classify 모델들은 [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) 데이터셋에 사전 훈련되어 있습니다. - -[모델](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)은 첫 사용 시 Ultralytics의 최신 [릴리스](https://github.com/ultralytics/assets/releases)에서 자동으로 다운로드 됩니다. - -| 모델 | 크기
(픽셀) | mAP박스
50-95 | mAP마스크
50-95 | 속도
CPU ONNX
(밀리초) | 속도
A100 TensorRT
(밀리초) | 매개변수
(M) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|-----------------|---------------------|----------------------|------------------------------|-----------------------------------|------------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- **mAPval** 값들은 [COCO val2017](https://cocodataset.org) 데이터셋에서 단일 모델 단일 스케일로 얻은 값입니다. -
복제는 `yolo val segment data=coco.yaml device=0` 명령어로 실행할 수 있습니다. -- **속도**는 [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) 인스턴스를 이용하여 COCO 검증 이미지로 평균 내었습니다. -
복제는 `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` 명령어로 실행할 수 있습니다. - -## 훈련 - -COCO128-seg 데이터셋에서 이미지 크기 640으로 YOLOv8n-seg을 100 에포크 동안 훈련합니다. 가능한 모든 인자 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다. - -!!! Example "예제" - - === "파이썬" - - ```python - from ultralytics import YOLO - - # 모델을 불러옵니다 - model = YOLO('yolov8n-seg.yaml') # YAML에서 새로운 모델을 구성 - model = YOLO('yolov8n-seg.pt') # 사전 훈련된 모델을 불러옴 (훈련에 추천) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # YAML에서 구성하고 가중치를 전달 - - # 모델을 훈련시킵니다 - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # YAML에서 새로운 모델을 구성하고 처음부터 훈련을 시작합니다 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # 사전 훈련된 *.pt 모델로 부터 훈련을 시작합니다 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # YAML에서 새로운 모델을 구성하고 사전 훈련된 가중치를 전달한 뒤 훈련을 시작합니다 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### 데이터셋 형식 - -YOLO 세그멘테이션 데이터셋 형식은 [데이터셋 가이드](../../../datasets/segment/index.md)에서 자세히 확인할 수 있습니다. 기존 데이터셋 (COCO 등)을 YOLO 형식으로 변환하려면 Ultralytics의 [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) 도구를 이용하세요. - -## 검증 - -COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검증합니다. 모델은 훈련할 때의 `data`와 인자를 모델 속성으로 기억하기 때문에 별도의 인자를 전달할 필요가 없습니다. - -!!! Example "예제" - - === "파이썬" - - ```python - from ultralytics import YOLO - - # 모델을 불러옵니다 - model = YOLO('yolov8n-seg.pt') # 공식 모델을 불러옴 - model = YOLO('path/to/best.pt') # 커스텀 모델을 불러옴 - - # 모델을 검증합니다 - metrics = model.val() # 데이터셋과 설정이 기억되어 있어 인자가 필요 없습니다 - metrics.box.map # map50-95(B) - metrics.box.map50 # map50(B) - metrics.box.map75 # map75(B) - metrics.box.maps # 각 카테고리별 map50-95(B) 리스트 - metrics.seg.map # map50-95(M) - metrics.seg.map50 # map50(M) - metrics.seg.map75 # map75(M) - metrics.seg.maps # 각 카테고리별 map50-95(M) 리스트 - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # 공식 모델로 검증 - yolo segment val model=path/to/best.pt # 커스텀 모델로 검증 - ``` - -## 예측 - -훈련된 YOLOv8n-seg 모델을 사용하여 이미지에 대한 예측을 실행합니다. - -!!! Example "예제" - - === "파이썬" - - ```python - from ultralytics import YOLO - - # 모델을 불러옵니다 - model = YOLO('yolov8n-seg.pt') # 공식 모델을 불러옴 - model = YOLO('path/to/best.pt') # 커스텀 모델을 불러옴 - - # 모델로 예측을 진행합니다 - results = model('https://ultralytics.com/images/bus.jpg') # 이미지에 대한 예측 - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # 공식 모델로 예측 실행 - yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # 커스텀 모델로 예측 실행 - ``` - -`predict` 모드의 전체 세부 사항은 [예측](https://docs.ultralytics.com/modes/predict/) 페이지에서 확인할 수 있습니다. - -## 수출 - -ONNX, CoreML 등과 같은 다른 형식으로 YOLOv8n-seg 모델을 수출합니다. - -!!! Example "예제" - - === "파이썬" - - ```python - from ultralytics import YOLO - - # 모델을 불러옵니다 - model = YOLO('yolov8n-seg.pt') # 공식 모델을 불러옴 - model = YOLO('path/to/best.pt') # 커스텀 훈련 모델을 불러옴 - - # 모델을 수출합니다 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # 공식 모델을 수출합니다 - yolo export model=path/to/best.pt format=onnx # 커스텀 훈련 모델을 수출합니다 - ``` - -아래 표에 나열된 것은 가능한 YOLOv8-seg 수출 형식입니다. 수출 완료 후 모델 사용 예는 모델을 직접 예측하거나 검증할 때 사용할 수 있습니다. - -| 형식 | `format` 인자 | 모델 | 메타데이터 | 인자 | -|--------------------------------------------------------------------|---------------|-------------------------------|-------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | - -`export`의 전체 세부 사항은 [수출](https://docs.ultralytics.com/modes/export/) 페이지에서 확인할 수 있습니다. diff --git a/docs/mkdocs_ar.yml b/docs/mkdocs_ar.yml deleted file mode 100644 index cff28a82794..00000000000 --- a/docs/mkdocs_ar.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: وثائق Ultralytics YOLOv8 -site_description: استكشف Ultralytics YOLOv8، نموذج الكشف عن الأجسام وتقطيع الصورة في الوقت الحقيقي المتطور لمختلف التطبيقات والمنصات الأجهزة. -site_url: https://docs.ultralytics.com/ar/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/ar/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "ar/" # where to find the markdown files -site_dir: "../site/ar" # where to publish to - -theme: - name: material - language: ar - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - الصفحة الرئيسية: - - الصفحة الرئيسية: index.md - - البدء السريع: quickstart.md - - الأوضاع: - - modes/index.md - - التدريب: modes/train.md - - التحقق: modes/val.md - - التنبؤ: modes/predict.md - - التصدير: modes/export.md - - التتبع: modes/track.md - - المعايير: modes/benchmark.md - - المهام: - - tasks/index.md - - الكشف: tasks/detect.md - - التجزئة: tasks/segment.md - - التصنيف: tasks/classify.md - - الوضعية: tasks/pose.md - - البدء السريع: quickstart.md - - الأوضاع: - - modes/index.md - - التدريب: modes/train.md - - التحقق: modes/val.md - - التنبؤ: modes/predict.md - - التصدير: modes/export.md - - التتبع: modes/track.md - - المعايير: modes/benchmark.md - - المهام: - - tasks/index.md - - الكشف: tasks/detect.md - - التجزئة: tasks/segment.md - - التصنيف: tasks/classify.md - - الوضعية: tasks/pose.md - - النماذج: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - المجموعات البيانية: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: ar - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_de.yml b/docs/mkdocs_de.yml deleted file mode 100644 index bb1fec01b21..00000000000 --- a/docs/mkdocs_de.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Ultralytics YOLOv8 Dokumentation -site_description: Entdecken Sie Ultralytics YOLOv8, ein hochmodernes Echtzeit-Objekterkennungs- und Bildsegmentierungsmodell für verschiedene Anwendungen und Hardware-Plattformen. -site_url: https://docs.ultralytics.com/de/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/de/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "de/" # where to find the markdown files -site_dir: "../site/de" # where to publish to - -theme: - name: material - language: de - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - Startseite: - - Startseite: index.md - - Schnellstart: quickstart.md - - Modi: - - modes/index.md - - Training: modes/train.md - - Validierung: modes/val.md - - Vorhersage: modes/predict.md - - Exportieren: modes/export.md - - Verfolgen: modes/track.md - - Benchmarking: modes/benchmark.md - - Aufgaben: - - tasks/index.md - - Erkennung: tasks/detect.md - - Segmentierung: tasks/segment.md - - Klassifizierung: tasks/classify.md - - Pose: tasks/pose.md - - Schnellstart: quickstart.md - - Modi: - - modes/index.md - - Training: modes/train.md - - Validierung: modes/val.md - - Vorhersage: modes/predict.md - - Exportieren: modes/export.md - - Verfolgen: modes/track.md - - Benchmarking: modes/benchmark.md - - Aufgaben: - - tasks/index.md - - Erkennung: tasks/detect.md - - Segmentierung: tasks/segment.md - - Klassifizierung: tasks/classify.md - - Pose: tasks/pose.md - - Modelle: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - Datensätze: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: de - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_es.yml b/docs/mkdocs_es.yml deleted file mode 100644 index 8491df4fb1e..00000000000 --- a/docs/mkdocs_es.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Documentación Ultralytics YOLOv8 -site_description: Explore Ultralytics YOLOv8, un modelo avanzado de detección de objetos e segmentación de imágenes en tiempo real para diversas aplicaciones y plataformas de hardware. -site_url: https://docs.ultralytics.com/es/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/es/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "es/" # where to find the markdown files -site_dir: "../site/es" # where to publish to - -theme: - name: material - language: es - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - Inicio: - - Inicio: index.md - - Inicio rápido: quickstart.md - - Modos: - - modes/index.md - - Entrenamiento: modes/train.md - - Validación: modes/val.md - - Predicción: modes/predict.md - - Exportar: modes/export.md - - Seguimiento: modes/track.md - - Benchmarking: modes/benchmark.md - - Tareas: - - tasks/index.md - - Detección: tasks/detect.md - - Segmentación: tasks/segment.md - - Clasificación: tasks/classify.md - - Pose: tasks/pose.md - - Inicio rápido: quickstart.md - - Modos: - - modes/index.md - - Entrenamiento: modes/train.md - - Validación: modes/val.md - - Predicción: modes/predict.md - - Exportar: modes/export.md - - Seguimiento: modes/track.md - - Benchmarking: modes/benchmark.md - - Tareas: - - tasks/index.md - - Detección: tasks/detect.md - - Segmentación: tasks/segment.md - - Clasificación: tasks/classify.md - - Pose: tasks/pose.md - - Modelos: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - Conjuntos de datos: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: es - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_fr.yml b/docs/mkdocs_fr.yml deleted file mode 100644 index a14e850a09f..00000000000 --- a/docs/mkdocs_fr.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Documentation Ultralytics YOLOv8 -site_description: Explorez Ultralytics YOLOv8, un modèle de pointe pour la détection d'objets et la segmentation d'image en temps réel, adapté à diverses applications et plateformes matérielles. -site_url: https://docs.ultralytics.com/fr/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/fr/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "fr/" # where to find the markdown files -site_dir: "../site/fr" # where to publish to - -theme: - name: material - language: fr - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - Accueil: - - Accueil: index.md - - Démarrage rapide: quickstart.md - - Modes: - - modes/index.md - - Entraînement: modes/train.md - - Validation: modes/val.md - - Prédiction: modes/predict.md - - Exportation: modes/export.md - - Suivi: modes/track.md - - Benchmarking: modes/benchmark.md - - Tâches: - - tasks/index.md - - Détection: tasks/detect.md - - Segmentation: tasks/segment.md - - Classification: tasks/classify.md - - Pose: tasks/pose.md - - Démarrage rapide: quickstart.md - - Modes: - - modes/index.md - - Entraînement: modes/train.md - - Validation: modes/val.md - - Prédiction: modes/predict.md - - Exportation: modes/export.md - - Suivi: modes/track.md - - Benchmarking: modes/benchmark.md - - Tâches: - - tasks/index.md - - Détection: tasks/detect.md - - Segmentation: tasks/segment.md - - Classification: tasks/classify.md - - Pose: tasks/pose.md - - Modèles: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - Jeux de données: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: fr - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_github_authors.yaml b/docs/mkdocs_github_authors.yaml new file mode 100644 index 00000000000..5734987c237 --- /dev/null +++ b/docs/mkdocs_github_authors.yaml @@ -0,0 +1,23 @@ +1185102784@qq.com: Laughing-q +1579093407@qq.com: null +17216799+ouphi@users.noreply.github.com: ouphi +17316848+maianumerosky@users.noreply.github.com: maianumerosky +34196005+fcakyon@users.noreply.github.com: fcakyon +37276661+capjamesg@users.noreply.github.com: capjamesg +39910262+ChaoningZhang@users.noreply.github.com: ChaoningZhang +40165666+berry-ding@users.noreply.github.com: berry-ding +47978446+sergiuwaxmann@users.noreply.github.com: sergiuwaxmann +61612323+Laughing-q@users.noreply.github.com: Laughing-q +62214284+Burhan-Q@users.noreply.github.com: Burhan-Q +75611662+tensorturtle@users.noreply.github.com: tensorturtle +78843978+Skillnoob@users.noreply.github.com: Skillnoob +79740115+0xSynapse@users.noreply.github.com: 0xSynapse +abirami.vina@gmail.com: abirami-vina +ayush.chaurarsia@gmail.com: AyushExel +chr043416@gmail.com: RizwanMunawar +glenn.jocher@ultralytics.com: glenn-jocher +muhammadrizwanmunawar123@gmail.com: RizwanMunawar +not.committed.yet: null +priytosh.revolution@live.com: priytosh-tripathi +shuizhuyuanluo@126.com: null +xinwang614@gmail.com: GreatV diff --git a/docs/mkdocs_hi.yml b/docs/mkdocs_hi.yml deleted file mode 100644 index d49491bc94e..00000000000 --- a/docs/mkdocs_hi.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Ultralytics YOLOv8 दस्तावेज़ -site_description: विभिन्न एप्लिकेशन्स और हार्डवेयर प्लेटफॉर्म्स के लिए Ultralytics YOLOv8 की खोज करें, एक अत्याधुनिक वास्तविक समय वस्तु पहचान और छवि विभाजन मॉडल। -site_url: https://docs.ultralytics.com/hi/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/hi/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "hi/" # where to find the markdown files -site_dir: "../site/hi" # where to publish to - -theme: - name: material - language: hi - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - होमपेज: - - होमपेज: index.md - - त्वरित प्रारंभ: quickstart.md - - मोड: - - modes/index.md - - प्रशिक्षण: modes/train.md - - मान्यता: modes/val.md - - भविष्यवाणी: modes/predict.md - - निर्यात: modes/export.md - - ट्रैकिंग: modes/track.md - - बेंचमार्किंग: modes/benchmark.md - - कार्य: - - tasks/index.md - - पहचान: tasks/detect.md - - खंडन: tasks/segment.md - - वर्गीकरण: tasks/classify.md - - मुद्रा: tasks/pose.md - - त्वरित प्रारंभ: quickstart.md - - मोड: - - modes/index.md - - प्रशिक्षण: modes/train.md - - मान्यता: modes/val.md - - भविष्यवाणी: modes/predict.md - - निर्यात: modes/export.md - - ट्रैकिंग: modes/track.md - - बेंचमार्किंग: modes/benchmark.md - - कार्य: - - tasks/index.md - - पहचान: tasks/detect.md - - खंडन: tasks/segment.md - - वर्गीकरण: tasks/classify.md - - मुद्रा: tasks/pose.md - - मॉडल: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - डेटासेट्स: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: hi - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_ja.yml b/docs/mkdocs_ja.yml deleted file mode 100644 index 7a172f38241..00000000000 --- a/docs/mkdocs_ja.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Ultralytics YOLOv8 ドキュメント -site_description: Ultralytics YOLOv8を探求してください。これは、さまざまなアプリケーションおよびハードウェアプラットフォームに適した最先端のリアルタイム物体検出および画像分割モデルです。 -site_url: https://docs.ultralytics.com/ja/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/ja/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "ja/" # where to find the markdown files -site_dir: "../site/ja" # where to publish to - -theme: - name: material - language: ja - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - ホーム: - - ホーム: index.md - - クイックスタート: quickstart.md - - モード: - - modes/index.md - - トレーニング: modes/train.md - - 検証: modes/val.md - - 予測: modes/predict.md - - エクスポート: modes/export.md - - トラッキング: modes/track.md - - ベンチマーク: modes/benchmark.md - - タスク: - - tasks/index.md - - 検出: tasks/detect.md - - セグメンテーション: tasks/segment.md - - 分類: tasks/classify.md - - ポーズ: tasks/pose.md - - クイックスタート: quickstart.md - - モード: - - modes/index.md - - トレーニング: modes/train.md - - 検証: modes/val.md - - 予測: modes/predict.md - - エクスポート: modes/export.md - - トラッキング: modes/track.md - - ベンチマーク: modes/benchmark.md - - タスク: - - tasks/index.md - - 検出: tasks/detect.md - - セグメンテーション: tasks/segment.md - - 分類: tasks/classify.md - - ポーズ: tasks/pose.md - - モデル: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - データセット: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: ja - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_ko.yml b/docs/mkdocs_ko.yml deleted file mode 100644 index 473ab7a18a4..00000000000 --- a/docs/mkdocs_ko.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Ultralytics YOLOv8 문서 -site_description: Ultralytics YOLOv8을 탐색하세요. 이는 다양한 애플리케이션 및 하드웨어 플랫폼을 위한 최첨단 실시간 객체 감지 및 이미지 분할 모델입니다. -site_url: https://docs.ultralytics.com/ko/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/ko/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "ko/" # where to find the markdown files -site_dir: "../site/ko" # where to publish to - -theme: - name: material - language: ko - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - 홈: - - 홈: index.md - - 빠른 시작: quickstart.md - - 모드: - - modes/index.md - - 훈련: modes/train.md - - 검증: modes/val.md - - 예측: modes/predict.md - - 내보내기: modes/export.md - - 추적: modes/track.md - - 벤치마크: modes/benchmark.md - - 작업: - - tasks/index.md - - 감지: tasks/detect.md - - 분할: tasks/segment.md - - 분류: tasks/classify.md - - 포즈: tasks/pose.md - - 빠른 시작: quickstart.md - - 모드: - - modes/index.md - - 훈련: modes/train.md - - 검증: modes/val.md - - 예측: modes/predict.md - - 내보내기: modes/export.md - - 추적: modes/track.md - - 벤치마크: modes/benchmark.md - - 작업: - - tasks/index.md - - 감지: tasks/detect.md - - 분할: tasks/segment.md - - 분류: tasks/classify.md - - 포즈: tasks/pose.md - - 모델: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - 데이터셋: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: ko - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_pt.yml b/docs/mkdocs_pt.yml deleted file mode 100644 index e6f1c90537b..00000000000 --- a/docs/mkdocs_pt.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Documentação Ultralytics YOLOv8 -site_description: Explore o Ultralytics YOLOv8, um modelo avançado de detecção de objetos e segmentação de imagem em tempo real, adequado para várias aplicações e plataformas de hardware. -site_url: https://docs.ultralytics.com/pt/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/pt/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "pt/" # where to find the markdown files -site_dir: "../site/pt" # where to publish to - -theme: - name: material - language: pt - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - Página Inicial: - - Página Inicial: index.md - - Início Rápido: quickstart.md - - Modos: - - modes/index.md - - Treinamento: modes/train.md - - Validação: modes/val.md - - Previsão: modes/predict.md - - Exportação: modes/export.md - - Rastreamento: modes/track.md - - Benchmarking: modes/benchmark.md - - Tarefas: - - tasks/index.md - - Detecção: tasks/detect.md - - Segmentação: tasks/segment.md - - Classificação: tasks/classify.md - - Pose: tasks/pose.md - - Início Rápido: quickstart.md - - Modos: - - modes/index.md - - Treinamento: modes/train.md - - Validação: modes/val.md - - Previsão: modes/predict.md - - Exportação: modes/export.md - - Rastreamento: modes/track.md - - Benchmarking: modes/benchmark.md - - Tarefas: - - tasks/index.md - - Detecção: tasks/detect.md - - Segmentação: tasks/segment.md - - Classificação: tasks/classify.md - - Pose: tasks/pose.md - - Modelos: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - Conjuntos de Dados: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: pt - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_ru.yml b/docs/mkdocs_ru.yml deleted file mode 100644 index d32cf7534ba..00000000000 --- a/docs/mkdocs_ru.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Документация Ultralytics YOLOv8 -site_description: Изучите Ultralytics YOLOv8, передовую модель для обнаружения объектов и сегментации изображений в реальном времени, подходящую для различных приложений и аппаратных платформ. -site_url: https://docs.ultralytics.com/ru/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/ru/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "ru/" # where to find the markdown files -site_dir: "../site/ru" # where to publish to - -theme: - name: material - language: ru - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - Главная: - - Главная: index.md - - Быстрый старт: quickstart.md - - Режимы: - - modes/index.md - - Обучение: modes/train.md - - Валидация: modes/val.md - - Прогнозирование: modes/predict.md - - Экспорт: modes/export.md - - Отслеживание: modes/track.md - - Бенчмаркинг: modes/benchmark.md - - Задачи: - - tasks/index.md - - Обнаружение: tasks/detect.md - - Сегментация: tasks/segment.md - - Классификация: tasks/classify.md - - Поза: tasks/pose.md - - Быстрый старт: quickstart.md - - Режимы: - - modes/index.md - - Обучение: modes/train.md - - Валидация: modes/val.md - - Прогнозирование: modes/predict.md - - Экспорт: modes/export.md - - Отслеживание: modes/track.md - - Бенчмаркинг: modes/benchmark.md - - Задачи: - - tasks/index.md - - Обнаружение: tasks/detect.md - - Сегментация: tasks/segment.md - - Классификация: tasks/classify.md - - Поза: tasks/pose.md - - Модели: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - Данные: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: ru - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_zh.yml b/docs/mkdocs_zh.yml deleted file mode 100644 index fd19f02b809..00000000000 --- a/docs/mkdocs_zh.yml +++ /dev/null @@ -1,212 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license - -site_name: Ultralytics YOLOv8 文档 -site_description: 探索Ultralytics YOLOv8,这是一款尖端的实时对象检测和图像分割模型,适用于各种应用和硬件平台。 -site_url: https://docs.ultralytics.com/zh/ -site_author: Ultralytics -repo_url: https://github.com/ultralytics/ultralytics -edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/zh/ -repo_name: ultralytics/ultralytics -remote_name: https://github.com/ultralytics/docs -docs_dir: "zh/" # where to find the markdown files -site_dir: "../site/zh" # where to publish to - -theme: - name: material - language: zh - custom_dir: overrides/ - logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg - favicon: assets/favicon.ico - icon: - repo: fontawesome/brands/github - # font: # disabled for faster page load times - # text: Helvetica - # code: Roboto Mono - palette: - - media: "(prefers-color-scheme)" - toggle: - icon: material/brightness-auto - name: Switch to light mode - - media: "(prefers-color-scheme: dark)" - scheme: slate - primary: black - accent: indigo - toggle: - icon: material/brightness-4 - name: Switch to system preference - - media: "(prefers-color-scheme: light)" - scheme: default - primary: indigo - accent: indigo - toggle: - icon: material/brightness-7 - name: Switch to dark mode - features: - - announce.dismiss - - content.action.edit - - content.code.annotate - - content.code.copy - - content.tooltips - - search.highlight - - search.share - - search.suggest - - toc.follow - - navigation.top - - navigation.tabs - - navigation.tabs.sticky - - navigation.prune - - navigation.footer - - navigation.tracking - - navigation.instant - - navigation.instant.progress - - navigation.indexes - - navigation.sections - - content.tabs.link # all code tabs change simultaneously - -# Customization -copyright: © 2024 Ultralytics Inc. All rights reserved. -extra: - # version: - # provider: mike # version drop-down menu - robots: robots.txt - analytics: - provider: google - property: G-2M5EHKC0BH - alternate: # language drop-down - - name: 🇬🇧 English - link: / - lang: en - - name: 🇨🇳 简体中文 - link: /zh/ - lang: zh - - name: 🇰🇷 한국어 - link: /ko/ - lang: ko - - name: 🇯🇵 日本語 - link: /ja/ - lang: ja - - name: 🇷🇺 Русский - link: /ru/ - lang: ru - - name: 🇩🇪 Deutsch - link: /de/ - lang: de - - name: 🇫🇷 Français - link: /fr/ - lang: fr - - name: 🇪🇸 Español - link: /es/ - lang: es - - name: 🇵🇹 Português - link: /pt/ - lang: pt - - name: 🇮🇳 हिन्दी - link: /hi/ - lang: hi - - name: 🇸🇦 العربية - link: /ar/ - lang: ar - social: - - icon: fontawesome/brands/github - link: https://github.com/ultralytics - - icon: fontawesome/brands/linkedin - link: https://www.linkedin.com/company/ultralytics/ - - icon: fontawesome/brands/x-twitter - link: https://twitter.com/ultralytics - - icon: fontawesome/brands/youtube - link: https://www.youtube.com/ultralytics - - icon: fontawesome/brands/docker - link: https://hub.docker.com/r/ultralytics/ultralytics/ - - icon: fontawesome/brands/python - link: https://pypi.org/project/ultralytics/ - - icon: fontawesome/brands/discord - link: https://ultralytics.com/discord - -extra_css: - - stylesheets/style.css -extra_javascript: - - javascript/extra.js - -markdown_extensions: - - admonition - - md_in_html - - tables - - attr_list - - def_list - - pymdownx.critic - - pymdownx.caret - - pymdownx.keys - - pymdownx.mark - - pymdownx.tilde - - pymdownx.details - - pymdownx.superfences - - pymdownx.inlinehilite - - pymdownx.highlight: - anchor_linenums: true - - pymdownx.snippets: - base_path: ./ - - pymdownx.emoji: - emoji_index: !!python/name:material.extensions.emoji.twemoji - emoji_generator: !!python/name:material.extensions.emoji.to_svg - - pymdownx.tabbed: - alternate_style: true - -# Primary navigation --------------------------------------------------------------------------------------------------- -nav: - - 主页: - - 主页: index.md - - 快速开始: quickstart.md - - 模式: - - modes/index.md - - 训练: modes/train.md - - 验证: modes/val.md - - 预测: modes/predict.md - - 导出: modes/export.md - - 跟踪: modes/track.md - - 基准测试: modes/benchmark.md - - 任务: - - tasks/index.md - - 检测: tasks/detect.md - - 分割: tasks/segment.md - - 分类: tasks/classify.md - - 姿态: tasks/pose.md - - 快速开始: quickstart.md - - 模式: - - modes/index.md - - 训练: modes/train.md - - 验证: modes/val.md - - 预测: modes/predict.md - - 导出: modes/export.md - - 跟踪: modes/track.md - - 基准测试: modes/benchmark.md - - 任务: - - tasks/index.md - - 检测: tasks/detect.md - - 分割: tasks/segment.md - - 分类: tasks/classify.md - - 姿态: tasks/pose.md - - 模型: - - models/index.md - - YOLOv3: models/yolov3.md - - YOLOv4: models/yolov4.md - - YOLOv5: models/yolov5.md - - YOLOv6: models/yolov6.md - - YOLOv7: models/yolov7.md - - YOLOv8: models/yolov8.md - - SAM (Segment Anything Model): models/sam.md - - MobileSAM (Mobile Segment Anything Model): models/mobile-sam.md - - FastSAM (Fast Segment Anything Model): models/fast-sam.md - - YOLO-NAS (Neural Architecture Search): models/yolo-nas.md - - RT-DETR (Realtime Detection Transformer): models/rtdetr.md - - 数据集: - - datasets/index.md - -# Plugins including 301 redirects navigation --------------------------------------------------------------------------- -plugins: - - search: - lang: zh - - ultralytics: - add_desc: False - add_image: True - add_share_buttons: True - default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/overrides/javascript/extra.js b/docs/overrides/javascript/extra.js index d67fece53ae..3233a644119 100644 --- a/docs/overrides/javascript/extra.js +++ b/docs/overrides/javascript/extra.js @@ -17,7 +17,7 @@ const applyAutoTheme = () => { // Function that checks and applies light/dark theme based on the user's preference (if auto theme is enabled) function checkAutoTheme() { // Array of supported language codes -> each language has its own palette (stored in local storage) - const supportedLangCodes = ["en", "zh", "ko", "ja", "ru", "de", "fr", "es", "pt"]; + const supportedLangCodes = ["en", "zh", "ko", "ja", "ru", "de", "fr", "es", "pt", "it", "tr", "vi", "nl"]; // Get the URL path const path = window.location.pathname; // Extract the language code from the URL (assuming it's in the format /xx/...) diff --git a/docs/overrides/main.html b/docs/overrides/main.html index 9fa5537e7f6..bc088cee51f 100644 --- a/docs/overrides/main.html +++ b/docs/overrides/main.html @@ -4,9 +4,9 @@ {% block announce %} {% endblock %} diff --git a/docs/overrides/partials/comments.html b/docs/overrides/partials/comments.html index 57050a156ab..a99f4f814b8 100644 --- a/docs/overrides/partials/comments.html +++ b/docs/overrides/partials/comments.html @@ -9,11 +9,12 @@

{{ lang.t("meta.comments") }}

data-emit-metadata="0" data-input-position="top" data-lang="en" - data-mapping="title" + data-loading="lazy" + data-mapping="pathname" data-reactions-enabled="1" data-repo="ultralytics/ultralytics" data-repo-id="R_kgDOH-jzvQ" - data-strict="0" + data-strict="1" data-theme="preferred_color_scheme" src="https://giscus.app/client.js"> diff --git a/docs/overrides/stylesheets/style.css b/docs/overrides/stylesheets/style.css index 9c58913de9f..6607002d083 100644 --- a/docs/overrides/stylesheets/style.css +++ b/docs/overrides/stylesheets/style.css @@ -51,7 +51,7 @@ div.highlight { /* Update the background of the banner (same as the one on the Ultralytics website) */ .md-banner { - background-image: url(https://assets-global.website-files.com/646dd1f1a3703e451ba81ecc/659fc4f4163e480e7ec280d0_banner.webp); + background-image: url(https://uploads-ssl.webflow.com/646dd1f1a3703e451ba81ecc/65e60cd6a4080bba757850a3_banner_ct.webp); background-size: cover; background-position: center; } diff --git a/docs/pt/datasets/index.md b/docs/pt/datasets/index.md deleted file mode 100644 index 11d1884a1e3..00000000000 --- a/docs/pt/datasets/index.md +++ /dev/null @@ -1,127 +0,0 @@ ---- -comments: true -description: Explore diversos conjuntos de dados de visão computacional suportados pela Ultralytics para detecção de objetos, segmentação, estimativa de pose, classificação de imagens e rastreamento de múltiplos objetos. -keywords: visão computacional, conjuntos de dados, Ultralytics, YOLO, detecção de objetos, segmentação de instância, estimativa de pose, classificação de imagens, rastreamento de múltiplos objetos ---- - -# Visão Geral de Conjuntos de Dados - -A Ultralytics oferece suporte para diversos conjuntos de dados para facilitar tarefas de visão computacional, como detecção, segmentação de instância, estimativa de pose, classificação e rastreamento de múltiplos objetos. Abaixo está uma lista dos principais conjuntos de dados da Ultralytics, seguidos por um resumo de cada tarefa de visão computacional e os respectivos conjuntos de dados. - -!!! Note "Nota" - - 🚧 Nossa documentação multilíngue está atualmente em construção e estamos trabalhando arduamente para melhorá-la. Obrigado pela sua paciência! 🙏 - -## [Conjuntos de Dados de Detecção](../../datasets/detect/index.md) - -A técnica de detecção de objetos com caixas delimitadoras envolve detectar e localizar objetos em uma imagem desenhando uma caixa delimitadora ao redor de cada objeto. - -- [Argoverse](../../datasets/detect/argoverse.md): Um conjunto de dados contendo dados de rastreamento 3D e previsão de movimento de ambientes urbanos com anotações detalhadas. -- [COCO](../../datasets/detect/coco.md): Um conjunto de dados em grande escala projetado para detecção de objetos, segmentação e legendagem com mais de 200 mil imagens etiquetadas. -- [COCO8](../../datasets/detect/coco8.md): Contém as primeiras 4 imagens do COCO train e COCO val, adequado para testes rápidos. -- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): Um conjunto de dados de imagens de espiga de trigo coletadas ao redor do mundo para tarefas de detecção e localização de objetos. -- [Objects365](../../datasets/detect/objects365.md): Um conjunto de dados de alta qualidade de grande escala para detecção de objetos com 365 categorias e mais de 600 mil imagens anotadas. -- [OpenImagesV7](../../datasets/detect/open-images-v7.md): Um conjunto de dados abrangente do Google com 1,7 milhão de imagens de treino e 42 mil imagens de validação. -- [SKU-110K](../../datasets/detect/sku-110k.md): Um conjunto de dados apresentando detecção de objetos densos em ambientes de varejo com mais de 11 mil imagens e 1,7 milhão de caixas delimitadoras. -- [VisDrone](../../datasets/detect/visdrone.md): Um conjunto de dados que contém informação de detecção de objetos e rastreamento de múltiplos objetos a partir de imagens capturadas por drones com mais de 10 mil imagens e sequências de vídeo. -- [VOC](../../datasets/detect/voc.md): O conjunto de dados Visual Object Classes (VOC) Pascal para detecção de objetos e segmentação com 20 classes de objetos e mais de 11 mil imagens. -- [xView](../../datasets/detect/xview.md): Um conjunto de dados para detecção de objetos em imagens aéreas com 60 categorias de objetos e mais de 1 milhão de objetos anotados. - -## [Conjuntos de Dados de Segmentação de Instância](../../datasets/segment/index.md) - -A segmentação de instância é uma técnica de visão computacional que identifica e localiza objetos em uma imagem ao nível de pixel. - -- [COCO](../../datasets/segment/coco.md): Um conjunto de dados em grande escala projetado para detecção de objetos, tarefas de segmentação e legendagem com mais de 200 mil imagens etiquetadas. -- [COCO8-seg](../../datasets/segment/coco8-seg.md): Um conjunto de dados menor para tarefas de segmentação de instâncias, contendo um subconjunto de 8 imagens COCO com anotações de segmentação. - -## [Estimativa de Pose](../../datasets/pose/index.md) - -A estimativa de pose é uma técnica usada para determinar a pose do objeto em relação à câmera ou ao sistema de coordenadas do mundo. - -- [COCO](../../datasets/pose/coco.md): Um conjunto de dados em grande escala com anotações de pose humana projetado para tarefas de estimativa de pose. -- [COCO8-pose](../../datasets/pose/coco8-pose.md): Um conjunto de dados menor para tarefas de estimativa de pose, contendo um subconjunto de 8 imagens COCO com anotações de pose humana. -- [Tiger-pose](../../datasets/pose/tiger-pose.md): Um conjunto de dados compacto consistindo de 263 imagens focadas em tigres, anotadas com 12 pontos-chave por tigre para tarefas de estimativa de pose. - -## [Classificação](../../datasets/classify/index.md) - -Classificação de imagens é uma tarefa de visão computacional que envolve categorizar uma imagem em uma ou mais classes ou categorias predefinidas com base em seu conteúdo visual. - -- [Caltech 101](../../datasets/classify/caltech101.md): Um conjunto de dados contendo imagens de 101 categorias de objetos para tarefas de classificação de imagens. -- [Caltech 256](../../datasets/classify/caltech256.md): Uma versão estendida do Caltech 101 com 256 categorias de objetos e imagens mais desafiadoras. -- [CIFAR-10](../../datasets/classify/cifar10.md): Um conjunto de dados de 60 mil imagens coloridas de 32x32 em 10 classes, com 6 mil imagens por classe. -- [CIFAR-100](../../datasets/classify/cifar100.md): Uma versão estendida do CIFAR-10 com 100 categorias de objetos e 600 imagens por classe. -- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): Um conjunto de dados consistindo de 70 mil imagens em escala de cinza de 10 categorias de moda para tarefas de classificação de imagens. -- [ImageNet](../../datasets/classify/imagenet.md): Um conjunto de dados em grande escala para detecção de objetos e classificação de imagens com mais de 14 milhões de imagens e 20 mil categorias. -- [ImageNet-10](../../datasets/classify/imagenet10.md): Um subconjunto menor do ImageNet com 10 categorias para experimentação e teste mais rápidos. -- [Imagenette](../../datasets/classify/imagenette.md): Um subconjunto menor do ImageNet que contém 10 classes facilmente distinguíveis para treinamento e teste mais rápidos. -- [Imagewoof](../../datasets/classify/imagewoof.md): Um subconjunto do ImageNet mais desafiador contendo 10 categorias de raças de cães para tarefas de classificação de imagens. -- [MNIST](../../datasets/classify/mnist.md): Um conjunto de dados de 70 mil imagens em escala de cinza de dígitos manuscritos para tarefas de classificação de imagens. - -## [Caixas Delimitadoras Orientadas (OBB)](../../datasets/obb/index.md) - -As Caixas Delimitadoras Orientadas (OBB) é um método em visão computacional para detectar objetos angulados em imagens usando caixas delimitadoras rotacionadas, muitas vezes aplicado em imagens aéreas e de satélite. - -- [DOTAv2](../../datasets/obb/dota-v2.md): Um popular conjunto de dados de imagens aéreas OBB com 1,7 milhão de instâncias e 11.268 imagens. - -## [Rastreamento de Múltiplos Objetos](../../datasets/track/index.md) - -O rastreamento de múltiplos objetos é uma técnica de visão computacional que envolve detectar e rastrear vários objetos ao longo do tempo em uma sequência de vídeo. - -- [Argoverse](../../datasets/detect/argoverse.md): Um conjunto de dados contendo dados de rastreamento 3D e previsão de movimento de ambientes urbanos com anotações ricas para tarefas de rastreamento de múltiplos objetos. -- [VisDrone](../../datasets/detect/visdrone.md): Um conjunto de dados que contém informação de detecção de objetos e rastreamento de múltiplos objetos a partir de imagens capturadas por drones com mais de 10 mil imagens e sequências de vídeo. - -## Contribuir com Novos Conjuntos de Dados - -Contribuir com um novo conjunto de dados envolve várias etapas para garantir que ele se alinhe bem com a infraestrutura existente. Abaixo estão as etapas necessárias: - -### Etapas para Contribuir com um Novo Conjunto de Dados - -1. **Coletar Imagens**: Reúna as imagens que pertencem ao conjunto de dados. Estas podem ser coletadas de várias fontes, como bancos de dados públicos ou sua própria coleção. - -2. **Anotar Imagens**: Anote essas imagens com caixas delimitadoras, segmentos ou pontos-chave, dependendo da tarefa. - -3. **Exportar Anotações**: Converta essas anotações no formato de arquivo `*.txt` YOLO que a Ultralytics suporta. - -4. **Organizar Conjunto de Dados**: Organize seu conjunto de dados na estrutura de pastas correta. Você deve ter diretórios de topo `train/` e `val/`, e dentro de cada um, um subdiretório `images/` e `labels/`. - - ``` - conjunto_de_dados/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **Criar um Arquivo `data.yaml`**: No diretório raiz do seu conjunto de dados, crie um arquivo `data.yaml` que descreva o conjunto de dados, as classes e outras informações necessárias. - -6. **Otimizar Imagens (Opcional)**: Se você quiser reduzir o tamanho do conjunto de dados para um processamento mais eficiente, pode otimizar as imagens usando o código abaixo. Isso não é obrigatório, mas recomendado para tamanhos menores de conjunto de dados e velocidades de download mais rápidas. - -7. **Compactar Conjunto de Dados**: Compacte toda a pasta do conjunto de dados em um arquivo zip. - -8. **Documentar e PR**: Crie uma página de documentação descrevendo seu conjunto de dados e como ele se encaixa no framework existente. Depois disso, submeta um Pull Request (PR). Consulte [Diretrizes de Contribuição da Ultralytics](https://docs.ultralytics.com/help/contributing) para mais detalhes sobre como submeter um PR. - -### Exemplo de Código para Otimizar e Compactar um Conjunto de Dados - -!!! Example "Otimizar e Compactar um Conjunto de Dados" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # Definir diretório do conjunto de dados - path = Path('caminho/para/conjunto_de_dados') - - # Otimizar imagens no conjunto de dados (opcional) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # Compactar conjunto de dados em 'caminho/para/conjunto_de_dados.zip' - zip_directory(path) - ``` - -Seguindo esses passos, você poderá contribuir com um novo conjunto de dados que se integra bem com a estrutura existente da Ultralytics. diff --git a/docs/pt/index.md b/docs/pt/index.md deleted file mode 100644 index 85b5ec9cd28..00000000000 --- a/docs/pt/index.md +++ /dev/null @@ -1,83 +0,0 @@ ---- -comments: true -description: Explore um guia completo do Ultralytics YOLOv8, um modelo de detecção de objetos e segmentação de imagens de alta velocidade e precisão. Tutoriais de instalação, previsão, treinamento e muito mais. -keywords: Ultralytics, YOLOv8, detecção de objetos, segmentação de imagens, aprendizado de máquina, aprendizado profundo, visão computacional, instalação do YOLOv8, previsão do YOLOv8, treinamento do YOLOv8, história do YOLO, licenças do YOLO ---- - -
-

- - Banner Ultralytics YOLO -

- GitHub da Ultralytics - space - LinkedIn da Ultralytics - space - Twitter da Ultralytics - space - YouTube da Ultralytics - space - TikTok da Ultralytics - space - Instagram da Ultralytics - space - Discord da Ultralytics -
-
- Integração Contínua da Ultralytics - Cobertura de Código da Ultralytics - Citação do YOLOv8 - Contagem de Pulls no Docker - Discord -
- Executar no Gradient - Abrir no Colab - Abrir no Kaggle -
- -Apresentamos o [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics), a mais recente versão do aclamado modelo de detecção de objetos em tempo real e segmentação de imagens. O YOLOv8 é baseado nos mais recentes avanços do aprendizado profundo e visão computacional, oferecendo um desempenho sem paralelo em termos de velocidade e precisão. Seu design simplificado o torna adequado para várias aplicações e facilmente adaptável a diferentes plataformas de hardware, desde dispositivos de borda até APIs na nuvem. - -Explore os Documentos do YOLOv8, um recurso abrangente projetado para ajudá-lo a entender e utilizar suas características e capacidades. Seja você um praticante experiente de aprendizado de máquina ou novo no campo, este hub tem como objetivo maximizar o potencial do YOLOv8 em seus projetos - -!!! Note "Nota" - - 🚧 Nossa documentação em vários idiomas está atualmente em construção e estamos trabalhando arduamente para aprimorá-la. Agradecemos sua paciência! 🙏 - -## Por Onde Começar - -- **Instalar** `ultralytics` com pip e começar a funcionar em minutos   [:material-clock-fast: Começar](quickstart.md){ .md-button } -- **Prever** novas imagens e vídeos com o YOLOv8   [:octicons-image-16: Prever em Imagens](modes/predict.md){ .md-button } -- **Treinar** um novo modelo YOLOv8 em seu próprio conjunto de dados personalizado   [:fontawesome-solid-brain: Treinar um Modelo](modes/train.md){ .md-button } -- **Explorar** tarefas do YOLOv8 como segmentar, classificar, estimar pose e rastrear   [:material-magnify-expand: Explorar Tarefas](tasks/index.md){ .md-button } - -

-
- -
- Assistir: Como Treinar um Modelo YOLOv8 em Seu Conjunto de Dados Personalizado no Google Colab. -

- -## YOLO: Uma Breve História - -[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once), um popular modelo de detecção de objetos e segmentação de imagens, foi desenvolvido por Joseph Redmon e Ali Farhadi na Universidade de Washington. Lançado em 2015, o YOLO rapidamente ganhou popularidade por sua alta velocidade e precisão. - -- [YOLOv2](https://arxiv.org/abs/1612.08242), lançado em 2016, aprimorou o modelo original incorporando normalização em lote, caixas âncora e aglomerados dimensionais. -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), lançado em 2018, melhorou ainda mais o desempenho do modelo usando uma rede dorsal mais eficiente, múltiplas âncoras e pooling piramidal espacial. -- [YOLOv4](https://arxiv.org/abs/2004.10934) foi lançado em 2020, introduzindo inovações como a ampliação de dados Mosaic, uma nova cabeça de detecção sem âncoras e uma nova função de perda. -- [YOLOv5](https://github.com/ultralytics/yolov5) melhorou ainda mais o desempenho do modelo e adicionou novos recursos, como otimização de hiperparâmetros, rastreamento integrado de experimentos e exportação automática para formatos de exportação populares. -- [YOLOv6](https://github.com/meituan/YOLOv6) foi disponibilizado em código aberto por [Meituan](https://about.meituan.com/) em 2022 e está em uso em muitos dos robôs autônomos de entrega da empresa. -- [YOLOv7](https://github.com/WongKinYiu/yolov7) adicionou tarefas adicionais, como estimativa de pose no conjunto de dados de keypoints COCO. -- [YOLOv8](https://github.com/ultralytics/ultralytics), a mais recente versão do YOLO pela Ultralytics. Como um modelo de última geração, o YOLOv8 baseia-se no sucesso das versões anteriores, introduzindo novos recursos e melhorias para desempenho, flexibilidade e eficiência aprimorados. O YOLOv8 suporta uma gama completa de tarefas de IA de visão, incluindo [detecção](tasks/detect.md), [segmentação](tasks/segment.md), [estimativa de pose](tasks/pose.md), [rastreamento](modes/track.md) e [classificação](tasks/classify.md). Essa versatilidade permite que os usuários aproveitem as capacidades do YOLOv8 em diversas aplicações e domínios. - -## Licenças YOLO: Como o YOLO da Ultralytics é licenciado? - -A Ultralytics oferece duas opções de licença para acomodar casos de uso diversos: - -- **Licença AGPL-3.0**: Essa licença de código aberto [aprovada pela OSI](https://opensource.org/licenses/) é ideal para estudantes e entusiastas, promovendo colaboração aberta e compartilhamento de conhecimento. Veja o arquivo [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) para mais detalhes. -- **Licença Empresarial**: Projetada para uso comercial, esta licença permite a integração perfeita do software Ultralytics e modelos de IA em bens e serviços comerciais, contornando os requisitos de código aberto da AGPL-3.0. Se o seu cenário envolver a incorporação de nossas soluções em uma oferta comercial, entre em contato através do [Licenciamento da Ultralytics](https://ultralytics.com/license). - -Nossa estratégia de licenciamento é projetada para garantir que qualquer melhoria em nossos projetos de código aberto retorne à comunidade. Mantemos os princípios de código aberto próximos ao nosso coração ❤️, e nossa missão é garantir que nossas contribuições possam ser utilizadas e expandidas de formas que beneficiem todos. diff --git a/docs/pt/models/fast-sam.md b/docs/pt/models/fast-sam.md deleted file mode 100644 index 54543ecc5dd..00000000000 --- a/docs/pt/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: Explore o FastSAM, uma solução baseada em CNN para segmentação em tempo real de objetos em imagens. Melhor interação do usuário, eficiência computacional e adaptabilidade em tarefas de visão. -keywords: FastSAM, aprendizado de máquina, solução baseada em CNN, segmentação de objetos, solução em tempo real, Ultralytics, tarefas de visão, processamento de imagens, aplicações industriais, interação do usuário ---- - -# Fast Segment Anything Model (FastSAM) - -O Fast Segment Anything Model (FastSAM) é uma solução inovadora baseada em CNN em tempo real para a tarefa de Segmentar Qualquer Coisa. Essa tarefa foi projetada para segmentar qualquer objeto dentro de uma imagem com base em várias possíveis instruções de interação do usuário. O FastSAM reduz significativamente as demandas computacionais, mantendo um desempenho competitivo, tornando-o uma escolha prática para uma variedade de tarefas de visão. - -![Visão geral da arquitetura do Fast Segment Anything Model (FastSAM)](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## Visão Geral - -O FastSAM é projetado para abordar as limitações do [Segment Anything Model (SAM)](sam.md), um modelo Transformer pesado com requisitos substanciais de recursos computacionais. O FastSAM divide a tarefa de segmentar qualquer coisa em duas etapas sequenciais: segmentação de todas as instâncias e seleção guiada por instruções. A primeira etapa usa o [YOLOv8-seg](../tasks/segment.md) para produzir as máscaras de segmentação de todas as instâncias na imagem. Na segunda etapa, ele gera a região de interesse correspondente à instrução. - -## Recursos Principais - -1. **Solução em Tempo Real:** Aproveitando a eficiência computacional das CNNs, o FastSAM fornece uma solução em tempo real para a tarefa de segmentar qualquer coisa, tornando-o valioso para aplicações industriais que exigem resultados rápidos. - -2. **Eficiência e Desempenho:** O FastSAM oferece uma redução significativa nas demandas computacionais e de recursos sem comprometer a qualidade do desempenho. Ele alcança um desempenho comparável ao SAM, mas com recursos computacionais drasticamente reduzidos, permitindo aplicações em tempo real. - -3. **Segmentação Guiada por Instruções:** O FastSAM pode segmentar qualquer objeto dentro de uma imagem com base em várias possíveis instruções de interação do usuário, proporcionando flexibilidade e adaptabilidade em diferentes cenários. - -4. **Baseado em YOLOv8-seg:** O FastSAM é baseado no [YOLOv8-seg](../tasks/segment.md), um detector de objetos equipado com um ramo de segmentação de instâncias. Isso permite que ele produza efetivamente as máscaras de segmentação de todas as instâncias em uma imagem. - -5. **Resultados Competitivos em Bancos de Dados de Referência:** Na tarefa de proposta de objetos no MS COCO, o FastSAM alcança pontuações altas em uma velocidade significativamente mais rápida do que o [SAM](sam.md) em uma única NVIDIA RTX 3090, demonstrando sua eficiência e capacidade. - -6. **Aplicações Práticas:** A abordagem proposta fornece uma nova solução prática para um grande número de tarefas de visão em alta velocidade, dezenas ou centenas de vezes mais rápido do que os métodos atuais. - -7. **Viabilidade de Compressão do Modelo:** O FastSAM demonstra a viabilidade de um caminho que pode reduzir significativamente o esforço computacional, introduzindo uma prioridade artificial à estrutura, abrindo assim novas possibilidades para arquiteturas de modelos grandes para tarefas gerais de visão. - -## Modelos Disponíveis, Tarefas Suportadas e Modos de Operação - -Esta tabela apresenta os modelos disponíveis com seus pesos pré-treinados específicos, as tarefas que eles suportam e sua compatibilidade com diferentes modos de operação, como [Inferência](../modes/predict.md), [Validação](../modes/val.md), [Treinamento](../modes/train.md) e [Exportação](../modes/export.md), indicados por emojis ✅ para modos suportados e emojis ❌ para modos não suportados. - -| Tipo de Modelo | Pesos Pré-treinados | Tarefas Suportadas | Inferência | Validação | Treinamento | Exportação | -|----------------|---------------------|--------------------------------------------------|------------|-----------|-------------|------------| -| FastSAM-s | `FastSAM-s.pt` | [Segmentação de Instâncias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [Segmentação de Instâncias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Exemplos de Uso - -Os modelos FastSAM são fáceis de integrar em suas aplicações Python. A Ultralytics fornece uma API Python amigável ao usuário e comandos de linha de comando (CLI) para facilitar o desenvolvimento. - -### Uso de Predição - -Para realizar detecção de objetos em uma imagem, use o método `predict` conforme mostrado abaixo: - -!!! Example "Exemplo" - - === "Python" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # Definir uma fonte de inferência - source = 'caminho/para/onibus.jpg' - - # Criar um modelo FastSAM - model = FastSAM('FastSAM-s.pt') # ou FastSAM-x.pt - - # Executar inferência em uma imagem - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # Preparar um objeto de Processo de Instruções - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # Instrução: tudo - ann = prompt_process.everything_prompt() - - # Forma padrão (bbox) [0,0,0,0] -> [x1,y1,x2,y2] - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # Instrução: texto - ann = prompt_process.text_prompt(text='uma foto de um cachorro') - - # Instrução: ponto - # pontos padrão [[0,0]] [[x1,y1],[x2,y2]] - # ponto_label padrão [0] [1,0] 0:fundo, 1:frente - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # Carregar um modelo FastSAM e segmentar tudo com ele - yolo segment predict model=FastSAM-s.pt source=caminho/para/onibus.jpg imgsz=640 - ``` - -Este trecho de código demonstra a simplicidade de carregar um modelo pré-treinado e executar uma predição em uma imagem. - -### Uso de Validação - -A validação do modelo em um conjunto de dados pode ser feita da seguinte forma: - -!!! Example "Exemplo" - - === "Python" - ```python - from ultralytics import FastSAM - - # Criar um modelo FastSAM - model = FastSAM('FastSAM-s.pt') # ou FastSAM-x.pt - - # Validar o modelo - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # Carregar um modelo FastSAM e validá-lo no conjunto de dados de exemplo COCO8 com tamanho de imagem 640 - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -Observe que o FastSAM suporta apenas detecção e segmentação de uma única classe de objeto. Isso significa que ele reconhecerá e segmentará todos os objetos como a mesma classe. Portanto, ao preparar o conjunto de dados, você precisará converter todos os IDs de categoria de objeto para 0. - -## Uso Oficial do FastSAM - -O FastSAM também está disponível diretamente no repositório [https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM). Aqui está uma visão geral breve das etapas típicas que você pode seguir para usar o FastSAM: - -### Instalação - -1. Clone o repositório do FastSAM: - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. Crie e ative um ambiente Conda com Python 3.9: - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. Navegue até o repositório clonado e instale os pacotes necessários: - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. Instale o modelo CLIP: - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### Exemplo de Uso - -1. Baixe um [checkpoint do modelo](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing). - -2. Use o FastSAM para inferência. Exemplos de comandos: - - - Segmentar tudo em uma imagem: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - Segmentar objetos específicos usando uma instrução de texto: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "o cachorro amarelo" - ``` - - - Segmentar objetos dentro de uma caixa delimitadora (fornecer coordenadas da caixa no formato xywh): - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - Segmentar objetos próximos a pontos específicos: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -Além disso, você pode experimentar o FastSAM através de um [demo no Colab](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing) ou no [demo web do HuggingFace](https://huggingface.co/spaces/An-619/FastSAM) para ter uma experiência visual. - -## Citações e Reconhecimentos - -Gostaríamos de reconhecer os autores do FastSAM por suas contribuições significativas no campo da segmentação de instâncias em tempo real: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -O artigo original do FastSAM pode ser encontrado no [arXiv](https://arxiv.org/abs/2306.12156). Os autores disponibilizaram seu trabalho publicamente, e o código pode ser acessado no [GitHub](https://github.com/CASIA-IVA-Lab/FastSAM). Agradecemos seus esforços em avançar o campo e tornar seu trabalho acessível à comunidade em geral. diff --git a/docs/pt/models/index.md b/docs/pt/models/index.md deleted file mode 100644 index c7958f3de08..00000000000 --- a/docs/pt/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Explore a ampla gama de modelos da família YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS e RT-DETR suportados pela Ultralytics. Comece com exemplos para uso tanto em CLI quanto em Python. -keywords: Ultralytics, documentação, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, modelos, arquiteturas, Python, CLI ---- - -# Modelos Suportados pela Ultralytics - -Bem-vindo à documentação de modelos da Ultralytics! Oferecemos suporte para uma ampla variedade de modelos, cada um adaptado para tarefas específicas como [detecção de objetos](../tasks/detect.md), [segmentação de instâncias](../tasks/segment.md), [classificação de imagens](../tasks/classify.md), [estimativa de pose](../tasks/pose.md), e [rastreamento de múltiplos objetos](../modes/track.md). Se você tem interesse em contribuir com sua arquitetura de modelo para a Ultralytics, confira nosso [Guia de Contribuição](../../help/contributing.md). - -!!! Note "Nota" - - 🚧 Nossa documentação em vários idiomas está atualmente em construção, e estamos trabalhando arduamente para melhorá-la. Agradecemos sua paciência! 🙏 - -## Modelos em Destaque - -Aqui estão alguns dos principais modelos suportados: - -1. **[YOLOv3](yolov3.md)**: A terceira iteração da família de modelos YOLO, originalmente por Joseph Redmon, conhecida por suas capacidades eficientes de detecção de objetos em tempo real. -2. **[YOLOv4](yolov4.md)**: Uma atualização nativa para o darknet do YOLOv3, lançada por Alexey Bochkovskiy em 2020. -3. **[YOLOv5](yolov5.md)**: Uma versão aprimorada da arquitetura YOLO pela Ultralytics, oferecendo melhor desempenho e compensações de velocidade em comparação com as versões anteriores. -4. **[YOLOv6](yolov6.md)**: Lançado pela [Meituan](https://about.meituan.com/) em 2022, e em uso em muitos dos robôs autônomos de entregas da empresa. -5. **[YOLOv7](yolov7.md)**: Modelos YOLO atualizados lançados em 2022 pelos autores do YOLOv4. -6. **[YOLOv8](yolov8.md) NOVO 🚀**: A versão mais recente da família YOLO, apresentando capacidades aprimoradas, como segmentação de instâncias, estimativa de pose/pontos-chave e classificação. -7. **[Segment Anything Model (SAM)](sam.md)**: Modelo Segment Anything (SAM) da Meta. -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**: MobileSAM para aplicações móveis, pela Universidade Kyung Hee. -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**: FastSAM pelo Grupo de Análise de Imagem e Vídeo, Instituto de Automação, Academia Chinesa de Ciências. -10. **[YOLO-NAS](yolo-nas.md)**: Modelos de Pesquisa de Arquitetura Neural YOLO (NAS). -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)**: Modelos de Transformador de Detecção em Tempo Real (RT-DETR) do PaddlePaddle da Baidu. - -

-
- -
- Assista: Execute modelos YOLO da Ultralytics em apenas algumas linhas de código. -

- -## Introdução: Exemplos de Uso - -Este exemplo oferece exemplos simples de treinamento e inferência com YOLO. Para uma documentação completa sobre estes e outros [modos](../modes/index.md), veja as páginas de documentação de [Previsão](../modes/predict.md), [Treinamento](../modes/train.md), [Validação](../modes/val.md) e [Exportação](../modes/export.md). - -Note que o exemplo abaixo é para modelos YOLOv8 [Detect](../tasks/detect.md) para detecção de objetos. Para tarefas suportadas adicionais, veja as documentações de [Segmentação](../tasks/segment.md), [Classificação](../tasks/classify.md) e [Pose](../tasks/pose.md). - -!!! Example "Exemplo" - - === "Python" - - Modelos `*.pt` pré-treinados em PyTorch, bem como arquivos de configuração `*.yaml`, podem ser passados para as classes `YOLO()`, `SAM()`, `NAS()` e `RTDETR()` para criar uma instância de modelo em Python: - - ```python - from ultralytics import YOLO - - # Carregar um modelo YOLOv8n pré-treinado no COCO - modelo = YOLO('yolov8n.pt') - - # Exibir informações do modelo (opcional) - modelo.info() - - # Treinar o modelo no conjunto de dados de exemplo COCO8 por 100 épocas - resultados = modelo.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Executar inferência com o modelo YOLOv8n na imagem 'bus.jpg' - resultados = modelo('path/to/bus.jpg') - ``` - - === "CLI" - - Comandos CLI estão disponíveis para executar diretamente os modelos: - - ```bash - # Carregar um modelo YOLOv8n pré-treinado no COCO e treiná-lo no conjunto de dados de exemplo COCO8 por 100 épocas - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Carregar um modelo YOLOv8n pré-treinado no COCO e executar inferência na imagem 'bus.jpg' - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## Contribuindo com Novos Modelos - -Interessado em contribuir com seu modelo para a Ultralytics? Ótimo! Estamos sempre abertos a expandir nosso portfólio de modelos. - -1. **Fork do Repositório**: Comece fazendo um fork do [repositório no GitHub da Ultralytics](https://github.com/ultralytics/ultralytics). - -2. **Clone Seu Fork**: Clone seu fork para a sua máquina local e crie uma nova branch para trabalhar. - -3. **Implemente Seu Modelo**: Adicione seu modelo seguindo as normas e diretrizes de codificação fornecidas no nosso [Guia de Contribuição](../../help/contributing.md). - -4. **Teste Cuidadosamente**: Assegure-se de testar seu modelo rigorosamente, tanto isoladamente quanto como parte do pipeline. - -5. **Crie um Pull Request**: Uma vez que estiver satisfeito com seu modelo, crie um pull request para o repositório principal para revisão. - -6. **Revisão de Código & Mesclagem**: Após a revisão, se seu modelo atender aos nossos critérios, ele será integrado ao repositório principal. - -Para etapas detalhadas, consulte nosso [Guia de Contribuição](../../help/contributing.md). diff --git a/docs/pt/models/mobile-sam.md b/docs/pt/models/mobile-sam.md deleted file mode 100644 index e4ffdc51b66..00000000000 --- a/docs/pt/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: Saiba mais sobre o MobileSAM, sua implementação, comparação com o SAM original e como baixá-lo e testá-lo no framework Ultralytics. Melhore suas aplicações móveis hoje. -keywords: MobileSAM, Ultralytics, SAM, aplicações móveis, Arxiv, GPU, API, codificador de imagens, decodificador de máscaras, download do modelo, método de teste ---- - -![Logotipo do MobileSAM](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# Segmentação Móvel de Qualquer Coisa (MobileSAM) - -O artigo do MobileSAM agora está disponível no [arXiv](https://arxiv.org/pdf/2306.14289.pdf). - -Uma demonstração do MobileSAM executando em uma CPU pode ser acessada neste [link de demonstração](https://huggingface.co/spaces/dhkim2810/MobileSAM). O desempenho em um Mac i5 CPU leva aproximadamente 3 segundos. Na demonstração do Hugging Face, a interface e CPUs de menor desempenho contribuem para uma resposta mais lenta, mas ela continua funcionando efetivamente. - -O MobileSAM é implementado em vários projetos, incluindo [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything), [AnyLabeling](https://github.com/vietanhdev/anylabeling) e [Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D). - -O MobileSAM é treinado em uma única GPU com um conjunto de dados de 100 mil imagens (1% das imagens originais) em menos de um dia. O código para esse treinamento será disponibilizado no futuro. - -## Modelos Disponíveis, Tarefas Suportadas e Modos de Operação - -Esta tabela apresenta os modelos disponíveis com seus pesos pré-treinados específicos, as tarefas que eles suportam e sua compatibilidade com diferentes modos de operação, como [Inference](../modes/predict.md), [Validation](../modes/val.md), [Training](../modes/train.md) e [Export](../modes/export.md), indicados pelos emojis ✅ para os modos suportados e ❌ para os modos não suportados. - -| Tipo de Modelo | Pesos Pré-treinados | Tarefas Suportadas | Inference | Validation | Training | Export | -|----------------|---------------------|--------------------------------------------------|-----------|------------|----------|--------| -| MobileSAM | `mobile_sam.pt` | [Segmentação de Instâncias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Adaptação de SAM para MobileSAM - -Como o MobileSAM mantém o mesmo pipeline do SAM original, incorporamos o pré-processamento original, pós-processamento e todas as outras interfaces. Consequentemente, aqueles que estão atualmente usando o SAM original podem fazer a transição para o MobileSAM com um esforço mínimo. - -O MobileSAM tem um desempenho comparável ao SAM original e mantém o mesmo pipeline, exceto por uma mudança no codificador de imagens. Especificamente, substituímos o codificador de imagens ViT-H original (632M) por um ViT menor (5M). Em uma única GPU, o MobileSAM opera em cerca de 12 ms por imagem: 8 ms no codificador de imagens e 4 ms no decodificador de máscaras. - -A tabela a seguir fornece uma comparação dos codificadores de imagens baseados em ViT: - -| Codificador de Imagens | SAM Original | MobileSAM | -|------------------------|--------------|-----------| -| Parâmetros | 611M | 5M | -| Velocidade | 452ms | 8ms | - -Tanto o SAM original quanto o MobileSAM utilizam o mesmo decodificador de máscaras baseado em prompt: - -| Decodificador de Máscaras | SAM Original | MobileSAM | -|---------------------------|--------------|-----------| -| Parâmetros | 3,876M | 3,876M | -| Velocidade | 4ms | 4ms | - -Aqui está a comparação de todo o pipeline: - -| Pipeline Completo (Enc+Dec) | SAM Original | MobileSAM | -|-----------------------------|--------------|-----------| -| Parâmetros | 615M | 9,66M | -| Velocidade | 456ms | 12ms | - -O desempenho do MobileSAM e do SAM original é demonstrado usando tanto um ponto quanto uma caixa como prompts. - -![Imagem com Ponto como Prompt](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![Imagem com Caixa como Prompt](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -Com seu desempenho superior, o MobileSAM é aproximadamente 5 vezes menor e 7 vezes mais rápido que o FastSAM atual. Mais detalhes estão disponíveis na [página do projeto MobileSAM](https://github.com/ChaoningZhang/MobileSAM). - -## Testando o MobileSAM no Ultralytics - -Assim como o SAM original, oferecemos um método de teste simples no Ultralytics, incluindo modos para prompts de Ponto e Caixa. - -### Download do Modelo - -Você pode baixar o modelo [aqui](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt). - -### Prompt de Ponto - -!!! Example "Exemplo" - - === "Python" - ```python - from ultralytics import SAM - - # Carregar o modelo - model = SAM('mobile_sam.pt') - - # Prever um segmento com base em um prompt de ponto - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### Prompt de Caixa - -!!! Example "Exemplo" - - === "Python" - ```python - from ultralytics import SAM - - # Carregar o modelo - model = SAM('mobile_sam.pt') - - # Prever um segmento com base em um prompt de caixa - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -Implementamos `MobileSAM` e `SAM` usando a mesma API. Para obter mais informações sobre o uso, consulte a [página do SAM](sam.md). - -## Citações e Agradecimentos - -Se você achar o MobileSAM útil em sua pesquisa ou trabalho de desenvolvimento, considere citar nosso artigo: - -!!! Citar "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/pt/models/rtdetr.md b/docs/pt/models/rtdetr.md deleted file mode 100644 index 1d8a2523320..00000000000 --- a/docs/pt/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: Descubra as características e benefícios do RT-DETR da Baidu, um detector de objetos em tempo real eficiente e adaptável baseado em Vision Transformers, incluindo modelos pré-treinados. -keywords: RT-DETR, Baidu, Vision Transformers, detecção de objetos, desempenho em tempo real, CUDA, TensorRT, seleção de consulta IoU, Ultralytics, API Python, PaddlePaddle ---- - -# RT-DETR da Baidu: Um Detector de Objetos em Tempo Real Baseado em Vision Transformers - -## Visão Geral - -O Real-Time Detection Transformer (RT-DETR), desenvolvido pela Baidu, é um detector de objetos de última geração que proporciona desempenho em tempo real mantendo alta precisão. Ele utiliza a potência dos Vision Transformers (ViT) para processar eficientemente recursos multiescala, separando a interação intra-escala e a fusão entre escalas. O RT-DETR é altamente adaptável, com suporte para ajuste flexível da velocidade de inferência usando diferentes camadas de decodificador sem a necessidade de retratamento. O modelo se destaca em backends acelerados como o CUDA com o TensorRT, superando muitos outros detectores de objetos em tempo real. - -![Exemplo de imagem do modelo](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**Visão geral do RT-DETR da Baidu.** O diagrama da arquitetura do modelo RT-DETR mostra as últimas três etapas da espinha dorsal {S3, S4, S5} como entrada para o codificador. O codificador híbrido eficiente transforma recursos multiescala em uma sequência de recursos de imagem por meio da interação de recursos intra-escala (AIFI) e do módulo de fusão de recursos entre escalas (CCFM). A seleção de consulta, consciente da IoU, é utilizada para selecionar um número fixo de recursos de imagem para servir como consultas de objeto iniciais para o decodificador. Por fim, o decodificador com cabeçotes de previsão auxiliares otimiza iterativamente as consultas de objeto para gerar caixas e pontuações de confiança ([fonte](https://arxiv.org/pdf/2304.08069.pdf)). - -### Características Principais - -- **Codificador Híbrido Eficiente:** O RT-DETR da Baidu utiliza um codificador híbrido eficiente para processar recursos multiescala por meio da separação da interação intra-escala e da fusão entre escalas. Esse design exclusivo baseado em Vision Transformers reduz os custos computacionais e permite a detecção de objetos em tempo real. -- **Seleção de Consulta Consciente de IoU:** O RT-DETR da Baidu melhora a inicialização das consultas de objeto ao utilizar seleção de consulta consciente de IoU. Isso permite que o modelo foque nos objetos mais relevantes na cena, aprimorando a precisão da detecção. -- **Velocidade de Inferência Adaptável:** O RT-DETR da Baidu suporta ajustes flexíveis da velocidade de inferência ao utilizar diferentes camadas de decodificador sem a necessidade de retratamento. Essa adaptabilidade facilita a aplicação prática em diversos cenários de detecção de objetos em tempo real. - -## Modelos Pré-Treinados - -A API Python do Ultralytics fornece modelos pré-treinados do RT-DETR do PaddlePaddle com diferentes escalas: - -- RT-DETR-L: 53,0% de AP em COCO val2017, 114 FPS em GPU T4 -- RT-DETR-X: 54,8% de AP em COCO val2017, 74 FPS em GPU T4 - -## Exemplos de Uso - -Este exemplo fornece exemplos simples de treinamento e inferência com o RT-DETRR. Para obter documentação completa sobre esses e outros [modos](../modes/index.md), consulte as páginas de documentação [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) e [Export](../modes/export.md). - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import RTDETR - - # Carregue um modelo RT-DETR-l pré-treinado no COCO - model = RTDETR('rtdetr-l.pt') - - # Exiba informações do modelo (opcional) - model.info() - - # Treine o modelo com o conjunto de dados de exemplo COCO8 por 100 épocas - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Execute a inferência com o modelo RT-DETR-l na imagem 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # Carregue um modelo RT-DETR-l pré-treinado no COCO e treine-o com o conjunto de dados de exemplo COCO8 por 100 épocas - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # Carregue um modelo RT-DETR-l pré-treinado no COCO e execute a inferência na imagem 'bus.jpg' - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## Tarefas e Modos Suportados - -Esta tabela apresenta os tipos de modelo, os pesos pré-treinados específicos, as tarefas suportadas por cada modelo e os vários modos ([Train](../modes/train.md), [Val](../modes/val.md), [Predict](../modes/predict.md), [Export](../modes/export.md)) que são suportados, indicados por emojis ✅. - -| Tipo de Modelo | Pesos Pré-treinados | Tarefas Suportadas | Inferência | Validação | Treinamento | Exportação | -|----------------------|---------------------|-------------------------------------------|------------|-----------|-------------|------------| -| RT-DETR Grande | `rtdetr-l.pt` | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR Extra-Grande | `rtdetr-x.pt` | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## Citações e Reconhecimentos - -Se você utilizar o RT-DETR da Baidu em seu trabalho de pesquisa ou desenvolvimento, por favor cite o [artigo original](https://arxiv.org/abs/2304.08069): - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Gostaríamos de agradecer à Baidu e à equipe do [PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection) por criar e manter esse recurso valioso para a comunidade de visão computacional. Sua contribuição para o campo com o desenvolvimento do detector de objetos em tempo real baseado em Vision Transformers, RT-DETR, é muito apreciada. - -*keywords: RT-DETR, Transformer, ViT, Vision Transformers, RT-DETR da Baidu, PaddlePaddle, modelos pré-treinados PaddlePaddle RT-DETR, uso do RT-DETR da Baidu, API Python do Ultralytics* diff --git a/docs/pt/models/sam.md b/docs/pt/models/sam.md deleted file mode 100644 index 408af95e7be..00000000000 --- a/docs/pt/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: Explore o Modelo de Segmentação de Qualquer Coisa (SAM) de última geração da Ultralytics que permite a segmentação de imagens em tempo real. Aprenda sobre a segmentação baseada em prompts, o desempenho de transferência zero e como utilizá-lo. -keywords: Ultralytics, segmentação de imagem, Modelo de Segmentação de Qualquer Coisa, SAM, conjunto de dados SA-1B, desempenho em tempo real, transferência zero, detecção de objetos, análise de imagens, aprendizado de máquina ---- - -# Modelo de Segmentação de Qualquer Coisa (SAM) - -Bem-vindo à fronteira da segmentação de imagem com o Modelo de Segmentação de Qualquer Coisa, ou SAM. Este modelo revolucionário mudou o jogo ao introduzir a segmentação de imagem baseada em prompts com desempenho em tempo real, estabelecendo novos padrões no campo. - -## Introdução ao SAM: O Modelo de Segmentação de Qualquer Coisa - -O Modelo de Segmentação de Qualquer Coisa, ou SAM, é um modelo de segmentação de imagem de ponta que permite a segmentação baseada em prompts, proporcionando uma versatilidade incomparável em tarefas de análise de imagem. O SAM é o cerne da iniciativa Segment Anything, um projeto inovador que introduz um modelo, tarefa e conjunto de dados novos para a segmentação de imagem. - -O design avançado do SAM permite que ele se adapte a novas distribuições de imagem e tarefas sem conhecimento prévio, um recurso conhecido como transferência zero. Treinado no abrangente [conjunto de dados SA-1B](https://ai.facebook.com/datasets/segment-anything/), que contém mais de 1 bilhão de máscaras espalhadas por 11 milhões de imagens cuidadosamente selecionadas, o SAM tem demonstrado um impressionante desempenho de transferência zero, superando os resultados totalmente supervisionados anteriores em muitos casos. - -![Exemplo de imagem do conjunto de dados](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -Imagens de exemplo com máscaras sobrepostas do nosso conjunto de dados recém-introduzido, SA-1B. O SA-1B contém 11 milhões de imagens diversas, de alta resolução, licenciadas e com proteção de privacidade, e 1,1 bilhão de máscaras de segmentação de alta qualidade. Essas máscaras foram anotadas totalmente automaticamente pelo SAM, e, como verificado por classificações humanas e inúmeros experimentos, são de alta qualidade e diversidade. As imagens são agrupadas pelo número de máscaras por imagem para visualização (em média, há ∼100 máscaras por imagem). - -## Recursos Principais do Modelo de Segmentação de Qualquer Coisa (SAM) - -- **Tarefa de Segmentação Baseada em Prompts:** O SAM foi projetado com uma tarefa de segmentação baseada em prompts em mente, permitindo que ele gere máscaras de segmentação válidas a partir de qualquer prompt fornecido, como dicas espaciais ou textuais que identifiquem um objeto. -- **Arquitetura Avançada:** O Modelo de Segmentação de Qualquer Coisa utiliza um poderoso codificador de imagens, um codificador de prompts e um decodificador de máscaras leve. Essa arquitetura única possibilita o uso flexível de prompts, cálculo de máscaras em tempo real e consciência de ambiguidade em tarefas de segmentação. -- **O Conjunto de Dados SA-1B:** Introduzido pelo projeto Segment Anything, o conjunto de dados SA-1B apresenta mais de 1 bilhão de máscaras em 11 milhões de imagens. Como o maior conjunto de dados de segmentação até o momento, ele fornece ao SAM uma fonte diversificada e em grande escala de dados de treinamento. -- **Desempenho de Transferência Zero:** O SAM apresenta um desempenho de transferência zero excepcional em diversas tarefas de segmentação, tornando-se uma ferramenta pronta para uso em aplicações diversas com necessidade mínima de engenharia de prompts. - -Para obter uma visão mais aprofundada do Modelo de Segmentação de Qualquer Coisa e do conjunto de dados SA-1B, visite o [site do Segment Anything](https://segment-anything.com) e consulte o artigo de pesquisa [Segment Anything](https://arxiv.org/abs/2304.02643). - -## Modelos Disponíveis, Tarefas Suportadas e Modos de Operação - -Esta tabela apresenta os modelos disponíveis com seus pesos pré-treinados específicos, as tarefas suportadas por eles e sua compatibilidade com diferentes modos de operação, como [Inferência](../modes/predict.md), [Validação](../modes/val.md), [Treinamento](../modes/train.md) e [Exportação](../modes/export.md), indicados pelos emojis ✅ para modos suportados e ❌ para modos não suportados. - -| Tipo de Modelo | Pesos Pré-Treinados | Tarefas Suportadas | Inferência | Validação | Treinamento | Exportação | -|----------------|---------------------|--------------------------------------------------|------------|-----------|-------------|------------| -| SAM base | `sam_b.pt` | [Segmentação de Instâncias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| SAM large | `sam_l.pt` | [Segmentação de Instâncias](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Como Usar o SAM: Versatilidade e Poder na Segmentação de Imagens - -O Modelo de Segmentação de Qualquer Coisa pode ser utilizado para uma variedade de tarefas secundárias que vão além dos dados de treinamento. Isso inclui detecção de bordas, geração de propostas de objeto, segmentação de instâncias e predição preliminar de texto para máscara. Com a engenharia de prompts, o SAM pode se adaptar rapidamente a novas tarefas e distribuições de dados de maneira inovadora, estabelecendo-se como uma ferramenta versátil e poderosa para todas as suas necessidades de segmentação de imagem. - -### Exemplo de predição do SAM - -!!! Example "Segmentar com prompts" - - Segmenta a imagem com prompts fornecidos. - - === "Python" - - ```python - from ultralytics import SAM - - # Carregar o modelo - modelo = SAM('sam_b.pt') - - # Exibir informações do modelo (opcional) - modelo.info() - - # Executar inferência com prompt de bboxes - modelo('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # Executar inferência com prompt de pontos - modelo('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "Segmentar tudo" - - Segmenta toda a imagem. - - === "Python" - - ```python - from ultralytics import SAM - - # Carregar o modelo - modelo = SAM('sam_b.pt') - - # Exibir informações do modelo (opcional) - modelo.info() - - # Executar inferência - modelo('caminho/para/imagem.jpg') - ``` - - === "CLI" - - ```bash - # Executar inferência com um modelo SAM - yolo predict model=sam_b.pt source=caminho/para/imagem.jpg - ``` - -- A lógica aqui é segmentar toda a imagem se nenhum prompt (bboxes/pontos/máscaras) for especificado. - -!!! Example "Exemplo do SAMPredictor" - - Desta forma, você pode definir a imagem uma vez e executar inferência de prompts várias vezes sem executar o codificador de imagem várias vezes. - - === "Inferência com prompt" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # Criar o SAMPredictor - substituições = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(substituições=substituições) - - # Definir imagem - predictor.set_image("ultralytics/assets/zidane.jpg") # definir com arquivo de imagem - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # definir com np.ndarray - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # Redefinir imagem - predictor.reset_image() - ``` - - Segmentar tudo com argumentos adicionais. - - === "Segmentar tudo" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # Criar o SAMPredictor - substituições = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(substituições=substituições) - - # Segmentar com argumentos adicionais - results = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- Mais argumentos adicionais para `Segmentar tudo` consulte a [Referência do `Predictor/generate`](../../../reference/models/sam/predict.md). - -## Comparação SAM vs. YOLOv8 - -Aqui, comparamos o menor modelo SAM-b da Meta com o menor modelo de segmentação da Ultralytics, [YOLOv8n-seg](../tasks/segment.md): - -| Modelo | Tamanho | Parâmetros | Velocidade (CPU) | -|-----------------------------------------------|-------------------------------|--------------------------------|--------------------------------------| -| SAM-b da Meta | 358 MB | 94,7 M | 51096 ms/im | -| [MobileSAM](mobile-sam.md) | 40,7 MB | 10,1 M | 46122 ms/im | -| [FastSAM-s](fast-sam.md) com YOLOv8 como base | 23,7 MB | 11,8 M | 115 ms/im | -| YOLOv8n-seg da Ultralytics | **6,7 MB** (53,4 vezes menor) | **3,4 M** (27,9 vezes a menos) | **59 ms/im** (866 vezes mais rápido) | - -Essa comparação mostra as diferenças de ordem de magnitude nos tamanhos e velocidades dos modelos. Enquanto o SAM apresenta capacidades exclusivas para segmentação automática, ele não é um concorrente direto dos modelos de segmentação YOLOv8, que são menores, mais rápidos e mais eficientes. - -Os testes foram executados em um MacBook Apple M2 de 2023 com 16GB de RAM. Para reproduzir este teste: - -!!! Example "Exemplo" - - === "Python" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # Perfil do SAM-b - modelo = SAM('sam_b.pt') - modelo.info() - modelo('ultralytics/assets') - - # Perfil do MobileSAM - modelo = SAM('mobile_sam.pt') - modelo.info() - modelo('ultralytics/assets') - - # Perfil do FastSAM-s - modelo = FastSAM('FastSAM-s.pt') - modelo.info() - modelo('ultralytics/assets') - - # Perfil do YOLOv8n-seg - modelo = YOLO('yolov8n-seg.pt') - modelo.info() - modelo('ultralytics/assets') - ``` - -## Autoanotação: Um Caminho Rápido para Conjuntos de Dados de Segmentação - -A autoanotação é um recurso-chave do SAM que permite aos usuários gerar um [conjunto de dados de segmentação](https://docs.ultralytics.com/datasets/segment) usando um modelo de detecção pré-treinado. Esse recurso permite a anotação rápida e precisa de um grande número de imagens, contornando a necessidade de anotação manual demorada. - -### Gere seu Conjunto de Dados de Segmentação Usando um Modelo de Detecção - -Para fazer a autoanotação do seu conjunto de dados com o framework Ultralytics, use a função `auto_annotate` conforme mostrado abaixo: - -!!! Example "Exemplo" - - === "Python" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="caminho/para/imagens", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| Argumento | Tipo | Descrição | Padrão | -|------------|---------------------|-----------------------------------------------------------------------------------------------------------|--------------| -| data | str | Caminho para uma pasta que contém as imagens a serem anotadas. | | -| det_model | str, opcional | Modelo de detecção YOLO pré-treinado. O padrão é 'yolov8x.pt'. | 'yolov8x.pt' | -| sam_model | str, opcional | Modelo de segmentação SAM pré-treinado. O padrão é 'sam_b.pt'. | 'sam_b.pt' | -| device | str, opcional | Dispositivo no qual executar os modelos. O padrão é uma string vazia (CPU ou GPU, se disponível). | | -| output_dir | str, None, opcional | Diretório para salvar os resultados anotados. O padrão é uma pasta 'labels' no mesmo diretório de 'data'. | None | - -A função `auto_annotate` recebe o caminho para suas imagens, com argumentos opcionais para especificar os modelos de detecção pré-treinados e de segmentação SAM, o dispositivo onde executar os modelos e o diretório de saída para salvar os resultados anotados. - -A autoanotação com modelos pré-treinados pode reduzir drasticamente o tempo e o esforço necessários para criar conjuntos de dados de segmentação de alta qualidade. Esse recurso é especialmente benéfico para pesquisadores e desenvolvedores que lidam com grandes coleções de imagens, pois permite que eles se concentrem no desenvolvimento e na avaliação do modelo, em vez de na anotação manual. - -## Citações e Reconhecimentos - -Se você encontrar o SAM útil em seu trabalho de pesquisa ou desenvolvimento, considere citar nosso artigo: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Gostaríamos de expressar nossa gratidão à Meta AI por criar e manter esse recurso valioso para a comunidade de visão computacional. - -*keywords: Segment Anything, Modelo de Segmentação de Qualquer Coisa, SAM, SAM da Meta, segmentação de imagem, segmentação baseada em prompts, desempenho de transferência zero, conjunto de dados SA-1B, arquitetura avançada, autoanotação, Ultralytics, modelos pré-treinados, SAM base, SAM large, segmentação de instâncias, visão computacional, IA, inteligência artificial, aprendizado de máquina, anotação de dados, máscaras de segmentação, modelo de detecção, modelo de detecção YOLO, bibtex, Meta AI.* diff --git a/docs/pt/models/yolo-nas.md b/docs/pt/models/yolo-nas.md deleted file mode 100644 index 238ddf5b6e1..00000000000 --- a/docs/pt/models/yolo-nas.md +++ /dev/null @@ -1,121 +0,0 @@ ---- -comments: true -description: Explore a documentação detalhada do YOLO-NAS, um modelo superior de detecção de objetos. Saiba mais sobre suas funcionalidades, modelos pré-treinados, uso com a API do Ultralytics Python e muito mais. -keywords: YOLO-NAS, Deci AI, detecção de objetos, aprendizado profundo, busca de arquitetura neural, API do Ultralytics Python, modelo YOLO, modelos pré-treinados, quantização, otimização, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## Visão Geral - -Desenvolvido pela Deci AI, o YOLO-NAS é um modelo de detecção de objetos inovador. É o produto da tecnologia avançada de Busca de Arquitetura Neural, meticulosamente projetado para superar as limitações dos modelos YOLO anteriores. Com melhorias significativas no suporte à quantização e compromisso entre precisão e latência, o YOLO-NAS representa um grande avanço na detecção de objetos. - -![Exemplo de imagem do modelo](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**Visão geral do YOLO-NAS.** O YOLO-NAS utiliza blocos que suportam quantização e quantização seletiva para obter um desempenho ideal. O modelo, quando convertido para sua versão quantizada INT8, apresenta uma queda mínima na precisão, uma melhoria significativa em relação a outros modelos. Esses avanços culminam em uma arquitetura superior com capacidades de detecção de objetos sem precedentes e desempenho excepcional. - -### Principais Características - -- **Bloco Básico Amigável para Quantização:** O YOLO-NAS introduz um novo bloco básico que é amigo da quantização, abordando uma das limitações significativas dos modelos YOLO anteriores. -- **Treinamento e Quantização Sofisticados:** O YOLO-NAS utiliza esquemas avançados de treinamento e quantização pós-treinamento para melhorar o desempenho. -- **Otimização AutoNAC e Pré-Treinamento:** O YOLO-NAS utiliza a otimização AutoNAC e é pré-treinado em conjuntos de dados proeminentes, como COCO, Objects365 e Roboflow 100. Esse pré-treinamento torna o modelo extremamente adequado para tarefas de detecção de objetos em ambientes de produção. - -## Modelos Pré-Treinados - -Experimente o poder da detecção de objetos de última geração com os modelos pré-treinados do YOLO-NAS fornecidos pela Ultralytics. Esses modelos foram projetados para oferecer um desempenho excelente em termos de velocidade e precisão. Escolha entre várias opções adaptadas às suas necessidades específicas: - -| Modelo | mAP | Latência (ms) | -|------------------|-------|---------------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -Cada variante do modelo foi projetada para oferecer um equilíbrio entre Precisão Média Média (mAP) e latência, ajudando você a otimizar suas tarefas de detecção de objetos em termos de desempenho e velocidade. - -## Exemplos de Uso - -A Ultralytics tornou os modelos YOLO-NAS fáceis de serem integrados em suas aplicações Python por meio de nosso pacote `ultralytics`. O pacote fornece uma API Python de fácil utilização para simplificar o processo. - -Os seguintes exemplos mostram como usar os modelos YOLO-NAS com o pacote `ultralytics` para inferência e validação: - -### Exemplos de Inferência e Validação - -Neste exemplo, validamos o YOLO-NAS-s no conjunto de dados COCO8. - -!!! Example "Exemplo" - - Este exemplo fornece um código simples de inferência e validação para o YOLO-NAS. Para lidar com os resultados da inferência, consulte o modo [Predict](../modes/predict.md). Para usar o YOLO-NAS com modos adicionais, consulte [Val](../modes/val.md) e [Export](../modes/export.md). O YOLO-NAS no pacote `ultralytics` não suporta treinamento. - - === "Python" - - Arquivos de modelos pré-treinados `*.pt` do PyTorch podem ser passados para a classe `NAS()` para criar uma instância do modelo em Python: - - ```python - from ultralytics import NAS - - # Carrega um modelo YOLO-NAS-s pré-treinado no COCO - model = NAS('yolo_nas_s.pt') - - # Exibe informações do modelo (opcional) - model.info() - - # Valida o modelo no conjunto de dados de exemplo COCO8 - results = model.val(data='coco8.yaml') - - # Executa inferência com o modelo YOLO-NAS-s na imagem 'bus.jpg' - results = model('caminho/para/bus.jpg') - ``` - - === "CLI" - - Comandos de CLI estão disponíveis para executar diretamente os modelos: - - ```bash - # Carrega um modelo YOLO-NAS-s pré-treinado no COCO e valida seu desempenho no conjunto de dados de exemplo COCO8 - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # Carrega um modelo YOLO-NAS-s pré-treinado no COCO e executa inferência na imagem 'bus.jpg' - yolo predict model=yolo_nas_s.pt source=caminho/para/bus.jpg - ``` - -## Tarefas e Modos Compatíveis - -Oferecemos três variantes dos modelos YOLO-NAS: Pequeno (s), Médio (m) e Grande (l). Cada variante foi projetada para atender a diferentes necessidades computacionais e de desempenho: - -- **YOLO-NAS-s**: Otimizado para ambientes com recursos computacionais limitados, mas eficiência é fundamental. -- **YOLO-NAS-m**: Oferece uma abordagem equilibrada, adequada para detecção de objetos em geral com maior precisão. -- **YOLO-NAS-l**: Adaptado para cenários que requerem a maior precisão, onde os recursos computacionais são menos restritos. - -Abaixo está uma visão geral detalhada de cada modelo, incluindo links para seus pesos pré-treinados, as tarefas que eles suportam e sua compatibilidade com diferentes modos de operação. - -| Tipo de Modelo | Pesos Pré-Treinados | Tarefas Suportadas | Inferência | Validação | Treinamento | Exportação | -|----------------|-----------------------------------------------------------------------------------------------|-------------------------------------------|------------|-----------|-------------|------------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## Citações e Agradecimentos - -Se você utilizar o YOLO-NAS em seus estudos ou trabalho de desenvolvimento, por favor, cite o SuperGradients: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -Expressamos nossa gratidão à equipe [SuperGradients](https://github.com/Deci-AI/super-gradients/) da Deci AI por seus esforços na criação e manutenção deste recurso valioso para a comunidade de visão computacional. Acreditamos que o YOLO-NAS, com sua arquitetura inovadora e capacidades superiores de detecção de objetos, se tornará uma ferramenta fundamental para desenvolvedores e pesquisadores. - -*keywords: YOLO-NAS, Deci AI, detecção de objetos, aprendizado profundo, busca de arquitetura neural, API do Ultralytics Python, modelo YOLO, SuperGradients, modelos pré-treinados, bloco básico amigável para quantização, esquemas avançados de treinamento, quantização pós-treinamento, otimização AutoNAC, COCO, Objects365, Roboflow 100* diff --git a/docs/pt/models/yolov3.md b/docs/pt/models/yolov3.md deleted file mode 100644 index f706d99b670..00000000000 --- a/docs/pt/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Obtenha uma visão geral do YOLOv3, YOLOv3-Ultralytics e YOLOv3u. Saiba mais sobre suas principais características, uso e tarefas suportadas para detecção de objetos. -keywords: YOLOv3, YOLOv3-Ultralytics, YOLOv3u, Detecção de Objetos, Inferência, Treinamento, Ultralytics ---- - -# YOLOv3, YOLOv3-Ultralytics, e YOLOv3u - -## Visão Geral - -Este documento apresenta uma visão geral de três modelos de detecção de objetos intimamente relacionados, nomeadamente o [YOLOv3](https://pjreddie.com/darknet/yolo/), [YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3) e [YOLOv3u](https://github.com/ultralytics/ultralytics). - -1. **YOLOv3:** Esta é a terceira versão do algoritmo de detecção de objetos You Only Look Once (YOLO). Originalmente desenvolvido por Joseph Redmon, o YOLOv3 melhorou seus predecessores ao introduzir recursos como previsões em várias escalas e três tamanhos diferentes de kernels de detecção. - -2. **YOLOv3-Ultralytics:** Esta é a implementação do YOLOv3 pela Ultralytics. Ela reproduz a arquitetura original do YOLOv3 e oferece funcionalidades adicionais, como suporte para mais modelos pré-treinados e opções de personalização mais fáceis. - -3. **YOLOv3u:** Esta é uma versão atualizada do YOLOv3-Ultralytics que incorpora o cabeçalho dividido livre de âncoras e sem "objectness" usado nos modelos YOLOv8. O YOLOv3u mantém a mesma arquitetura de "backbone" e "neck" do YOLOv3, mas com o cabeçalho de detecção atualizado do YOLOv8. - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## Principais Características - -- **YOLOv3:** Introduziu o uso de três escalas diferentes para detecção, aproveitando três tamanhos diferentes de kernels de detecção: 13x13, 26x26 e 52x52. Isso melhorou significativamente a precisão da detecção para objetos de diferentes tamanhos. Além disso, o YOLOv3 adicionou recursos como previsões multi-rótulos para cada caixa delimitadora e uma rede de extração de características melhor. - -- **YOLOv3-Ultralytics:** A implementação do YOLOv3 pela Ultralytics oferece o mesmo desempenho do modelo original, porém possui suporte adicional para mais modelos pré-treinados, métodos de treinamento adicionais e opções de personalização mais fáceis. Isso torna o modelo mais versátil e fácil de usar para aplicações práticas. - -- **YOLOv3u:** Este modelo atualizado incorpora o cabeçalho dividido livre de âncoras e "objectness" do YOLOv8. Ao eliminar a necessidade de caixas de âncoras pré-definidas e pontuações de "objectness", esse design de cabeçalho de detecção pode melhorar a capacidade do modelo de detectar objetos de tamanhos e formatos variados. Isso torna o YOLOv3u mais robusto e preciso para tarefas de detecção de objetos. - -## Tarefas e Modos Suportados - -A série YOLOv3, incluindo YOLOv3, YOLOv3-Ultralytics e YOLOv3u, foi projetada especificamente para tarefas de detecção de objetos. Esses modelos são conhecidos por sua eficácia em vários cenários do mundo real, equilibrando precisão e velocidade. Cada variante oferece recursos e otimizações únicos, tornando-os adequados para uma variedade de aplicações. - -Os três modelos suportam um conjunto abrangente de modos, garantindo versatilidade em várias etapas do desenvolvimento e implantação de modelos. Esses modos incluem [Inferência](../modes/predict.md), [Validação](../modes/val.md), [Treinamento](../modes/train.md) e [Exportação](../modes/export.md), fornecendo aos usuários um conjunto completo de ferramentas para detecção eficaz de objetos. - -| Tipo de Modelo | Tarefas Suportadas | Inferência | Validação | Treinamento | Exportação | -|--------------------|-------------------------------------------|------------|-----------|-------------|------------| -| YOLOv3 | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Esta tabela fornece uma visão rápida das capacidades de cada variante do YOLOv3, destacando sua versatilidade e adequação para várias tarefas e modos operacionais em fluxos de trabalho de detecção de objetos. - -## Exemplos de Uso - -Este exemplo apresenta exemplos simples de treinamento e inferência do YOLOv3. Para obter documentação completa sobre esses e outros [modos](../modes/index.md), consulte as páginas de documentação do [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) e [Export](../modes/export.md). - -!!! Example "Exemplo" - - === "Python" - - Modelos pré-treinados do PyTorch `*.pt`, bem como arquivos de configuração `*.yaml`, podem ser passados para a classe `YOLO()` para criar uma instância do modelo em Python: - - ```python - from ultralytics import YOLO - - # Carregue um modelo YOLOv3n pré-treinado na COCO - model = YOLO('yolov3n.pt') - - # Exiba informações sobre o modelo (opcional) - model.info() - - # Treine o modelo no conjunto de dados de exemplo COCO8 por 100 épocas - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Execute inferência com o modelo YOLOv3n na imagem 'bus.jpg' - results = model('caminho/para/bus.jpg') - ``` - - === "CLI" - - Comandos CLI estão disponíveis para executar diretamente os modelos: - - ```bash - # Carregue um modelo YOLOv3n pré-treinado na COCO e treine-o no conjunto de dados de exemplo COCO8 por 100 épocas - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Carregue um modelo YOLOv3n pré-treinado na COCO e execute inferência na imagem 'bus.jpg' - yolo predict model=yolov3n.pt source=caminho/para/bus.jpg - ``` - -## Citações e Reconhecimentos - -Se você utilizar o YOLOv3 em sua pesquisa, por favor, cite os artigos originais do YOLO e o repositório Ultralytics YOLOv3: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -Agradecemos a Joseph Redmon e Ali Farhadi por desenvolverem o YOLOv3 original. diff --git a/docs/pt/models/yolov4.md b/docs/pt/models/yolov4.md deleted file mode 100644 index 297be59ef75..00000000000 --- a/docs/pt/models/yolov4.md +++ /dev/null @@ -1,71 +0,0 @@ ---- -comments: true -description: Explore nosso guia detalhado sobre o YOLOv4, um detector de objetos em tempo real de última geração. Entenda seus destaques arquiteturais, recursos inovadores e exemplos de aplicação. -keywords: ultralytics, YOLOv4, detecção de objetos, rede neural, detecção em tempo real, detector de objetos, aprendizado de máquina ---- - -# YOLOv4: Detecção de Objetos Rápida e Precisa - -Bem-vindo à página de documentação do Ultralytics para o YOLOv4, um detector de objetos em tempo real de última geração lançado em 2020 por Alexey Bochkovskiy em [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). O YOLOv4 foi projetado para fornecer o equilíbrio ideal entre velocidade e precisão, tornando-o uma excelente escolha para muitas aplicações. - -![Diagrama da arquitetura do YOLOv4](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**Diagrama da arquitetura do YOLOv4**. Mostra o design intricado da rede do YOLOv4, incluindo os componentes backbone, neck e head, bem como suas camadas interconectadas para uma detecção de objetos em tempo real otimizada. - -## Introdução - -YOLOv4 significa You Only Look Once versão 4. É um modelo de detecção de objetos em tempo real desenvolvido para superar as limitações de versões anteriores do YOLO, como [YOLOv3](yolov3.md) e outros modelos de detecção de objetos. Ao contrário de outros detectores de objetos baseados em redes neurais convolucionais (CNN), o YOLOv4 é aplicável não apenas a sistemas de recomendação, mas também ao gerenciamento de processos independentes e à redução da entrada humana. Sua operação em unidades de processamento gráfico (GPUs) convencionais permite o uso em massa a um preço acessível, e foi projetado para funcionar em tempo real em uma GPU convencional, exigindo apenas uma GPU para treinamento. - -## Arquitetura - -O YOLOv4 faz uso de várias características inovadoras que trabalham juntas para otimizar seu desempenho. Estas incluem Conexões Residuais Ponderadas (WRC), Conexões Parciais Cruzadas de Estágio (CSP), Normalização Cruzada em Mini Lote (CmBN), Treinamento Autoadversário (SAT), Ativação Mish, Aumento de Dados Mosaic, Regularização DropBlock e Perda CIoU. Essas características são combinadas para obter resultados de última geração. - -Um detector de objetos típico é composto por várias partes, incluindo a entrada, o backbone, o neck e o head. O backbone do YOLOv4 é pré-treinado no ImageNet e é usado para prever as classes e caixas delimitadoras dos objetos. O backbone pode ser de vários modelos, incluindo VGG, ResNet, ResNeXt ou DenseNet. A parte neck do detector é usada para coletar mapas de características de diferentes estágios e geralmente inclui várias caminhadas bottom-up e várias caminhadas top-down. A parte head é responsável por fazer as detecções e classificações finais dos objetos. - -## Bag of Freebies - -O YOLOv4 também faz uso de métodos conhecidos como "bag of freebies" (saco de brindes), que são técnicas que melhoram a precisão do modelo durante o treinamento sem aumentar o custo da inferência. O aumento de dados é uma técnica comum de "bag of freebies" usada na detecção de objetos, que aumenta a variabilidade das imagens de entrada para melhorar a robustez do modelo. Alguns exemplos de aumento de dados incluem distorções fotométricas (ajustando o brilho, contraste, matiz, saturação e ruído de uma imagem) e distorções geométricas (adicionando dimensionamento aleatório, recorte, espelhamento e rotação). Essas técnicas ajudam o modelo a generalizar melhor para diferentes tipos de imagens. - -## Recursos e Desempenho - -O YOLOv4 foi projetado para oferecer velocidade e precisão ideais na detecção de objetos. A arquitetura do YOLOv4 inclui o CSPDarknet53 como o backbone, o PANet como o neck e o YOLOv3 como a cabeça de detecção. Esse design permite que o YOLOv4 realize detecção de objetos em uma velocidade impressionante, tornando-o adequado para aplicações em tempo real. O YOLOv4 também se destaca em termos de precisão, alcançando resultados de última geração em benchmarks de detecção de objetos. - -## Exemplos de Uso - -No momento da escrita, o Ultralytics não oferece suporte a modelos YOLOv4. Portanto, os usuários interessados em usar o YOLOv4 deverão consultar diretamente o repositório YOLOv4 no GitHub para instruções de instalação e uso. - -Aqui está uma breve visão geral das etapas típicas que você pode seguir para usar o YOLOv4: - -1. Visite o repositório YOLOv4 no GitHub: [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). - -2. Siga as instruções fornecidas no arquivo README para a instalação. Isso geralmente envolve clonar o repositório, instalar as dependências necessárias e configurar as variáveis de ambiente necessárias. - -3. Uma vez que a instalação esteja completa, você pode treinar e usar o modelo de acordo com as instruções de uso fornecidas no repositório. Isso geralmente envolve a preparação do seu conjunto de dados, a configuração dos parâmetros do modelo, o treinamento do modelo e, em seguida, o uso do modelo treinado para realizar a detecção de objetos. - -Observe que as etapas específicas podem variar dependendo do seu caso de uso específico e do estado atual do repositório YOLOv4. Portanto, é altamente recomendável consultar diretamente as instruções fornecidas no repositório YOLOv4 do GitHub. - -Lamentamos qualquer inconveniente que isso possa causar e nos esforçaremos para atualizar este documento com exemplos de uso para o Ultralytics assim que o suporte para o YOLOv4 for implementado. - -## Conclusão - -O YOLOv4 é um modelo poderoso e eficiente de detecção de objetos que oferece um equilíbrio entre velocidade e precisão. O uso de recursos exclusivos e técnicas "Bag of Freebies" durante o treinamento permite que ele tenha um excelente desempenho em tarefas de detecção de objetos em tempo real. O YOLOv4 pode ser treinado e usado por qualquer pessoa com uma GPU convencional, tornando-o acessível e prático para uma ampla variedade de aplicações. - -## Referências e Agradecimentos - -Gostaríamos de agradecer aos autores do YOLOv4 por suas contribuições significativas no campo da detecção de objetos em tempo real: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -O artigo original do YOLOv4 pode ser encontrado no [arXiv](https://arxiv.org/abs/2004.10934). Os autores disponibilizaram seu trabalho publicamente, e o código pode ser acessado no [GitHub](https://github.com/AlexeyAB/darknet). Agradecemos seus esforços em avançar o campo e tornar seu trabalho acessível à comunidade em geral. diff --git a/docs/pt/models/yolov5.md b/docs/pt/models/yolov5.md deleted file mode 100644 index a11fa94bd11..00000000000 --- a/docs/pt/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: Descubra o YOLOv5u, uma versão aprimorada do modelo YOLOv5 com uma relação aprimorada entre precisão e velocidade e vários modelos pré-treinados para várias tarefas de detecção de objetos. -keywords: YOLOv5u, detecção de objetos, modelos pré-treinados, Ultralytics, Inferência, Validação, YOLOv5, YOLOv8, sem âncora, sem certeza de objectness, aplicativos em tempo real, machine learning ---- - -# YOLOv5 - -## Visão Geral - -O YOLOv5u representa um avanço nas metodologias de detecção de objetos. Originário da arquitetura fundamental do modelo [YOLOv5](https://github.com/ultralytics/yolov5) desenvolvido pela Ultralytics, o YOLOv5u integra a divisão da cabeça do Ultralytics sem âncora e sem certeza de objectness, uma formação introduzida anteriormente nos modelos [YOLOv8](yolov8.md). Essa adaptação aprimora a arquitetura do modelo, resultando em uma relação aprimorada entre precisão e velocidade em tarefas de detecção de objetos. Com base nos resultados empíricos e em suas características derivadas, o YOLOv5u oferece uma alternativa eficiente para aqueles que procuram soluções robustas tanto na pesquisa quanto em aplicações práticas. - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## Principais Recursos - -- **Cabeça do Ultralytics sem Âncora:** Modelos tradicionais de detecção de objetos dependem de caixas âncora predefinidas para prever as localizações dos objetos. No entanto, o YOLOv5u moderniza essa abordagem. Ao adotar uma cabeça do Ultralytics sem âncora, ele garante um mecanismo de detecção mais flexível e adaptável, melhorando consequentemente o desempenho em cenários diversos. - -- **Equilíbrio otimizado entre precisão e velocidade:** Velocidade e precisão muitas vezes puxam em direções opostas. Mas o YOLOv5u desafia esse equilíbrio. Ele oferece um equilíbrio calibrado, garantindo detecções em tempo real sem comprometer a precisão. Esse recurso é particularmente valioso para aplicativos que exigem respostas rápidas, como veículos autônomos, robótica e análise de vídeo em tempo real. - -- **Variedade de Modelos Pré-Treinados:** Entendendo que diferentes tarefas exigem conjuntos de ferramentas diferentes, o YOLOv5u oferece uma variedade de modelos pré-treinados. Se você está focado em Inferência, Validação ou Treinamento, há um modelo personalizado esperando por você. Essa variedade garante que você não esteja apenas usando uma solução genérica, mas sim um modelo ajustado especificamente para o seu desafio único. - -## Tarefas e Modos Suportados - -Os modelos YOLOv5u, com vários pesos pré-treinados, se destacam nas tarefas de [Detecção de Objetos](../tasks/detect.md). Eles suportam uma ampla gama de modos, tornando-os adequados para aplicações diversas, desde o desenvolvimento até a implantação. - -| Tipo de Modelo | Pesos Pré-Treinados | Tarefa | Inferência | Validação | Treinamento | Exportação | -|----------------|-----------------------------------------------------------------------------------------------------------------------------|-------------------------------------------|------------|-----------|-------------|------------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Essa tabela oferece uma visão detalhada das variantes do modelo YOLOv5u, destacando sua aplicabilidade em tarefas de detecção de objetos e suporte a diversos modos operacionais, como [Inferência](../modes/predict.md), [Validação](../modes/val.md), [Treinamento](../modes/train.md) e [Exportação](../modes/export.md). Esse suporte abrangente garante que os usuários possam aproveitar totalmente as capacidades dos modelos YOLOv5u em uma ampla gama de cenários de detecção de objetos. - -## Métricas de Desempenho - -!!! Desempenho - - === "Detecção" - - Consulte a [Documentação de Detecção](https://docs.ultralytics.com/tasks/detect/) para exemplos de uso com esses modelos treinados no conjunto de dados [COCO](https://docs.ultralytics.com/datasets/detect/coco/), que incluem 80 classes pré-treinadas. - - | Modelo | YAML | tamanho
(pixels) | mAPval
50-95 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | parâmetros
(M) | FLOPs
(B) | - | --------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------------------------| -------------------------| ----------------------| -------------------------------------| -------------------------------------- | ---------------------- | ----------------- | - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43.0 | 120.7 | 1.27 | 9.1 | 24.0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49.0 | 233.9 | 1.86 | 25.1 | 64.2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52.2 | 408.4 | 2.50 | 53.2 | 135.0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53.2 | 763.2 | 3.81 | 97.2 | 246.4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42.1 | 211.0 | 1.83 | 4.3 | 7.8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48.6 | 422.6 | 2.34 | 15.3 | 24.6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53.6 | 810.9 | 4.36 | 41.2 | 65.7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55.7 | 1470.9 | 5.47 | 86.1 | 137.4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56.8 | 2436.5 | 8.98 | 155.4 | 250.7 | - -## Exemplos de Uso - -Este exemplo fornece exemplos simples de treinamento e inferência do YOLOv5. Para documentação completa sobre esses e outros [modos](../modes/index.md), consulte as páginas de documentação [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) e [Export](../modes/export.md). - -!!! Example "Exemplo" - - === "Python" - - Modelos pré-treinados `*.pt` do PyTorch, assim como os arquivos de configuração `*.yaml`, podem ser passados para a classe `YOLO()` para criar uma instância do modelo em Python: - - ```python - from ultralytics import YOLO - - # Carrega um modelo YOLOv5n pré-treinado no COCO - modelo = YOLO('yolov5n.pt') - - # Mostra informações do modelo (opcional) - modelo.info() - - # Treina o modelo no conjunto de dados de exemplo COCO8 por 100 épocas - resultados = modelo.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Executa a inferência com o modelo YOLOv5n na imagem 'bus.jpg' - resultados = modelo('path/to/bus.jpg') - ``` - - === "CLI" - - Comandos CLI estão disponíveis para executar diretamente os modelos: - - ```bash - # Carrega um modelo YOLOv5n pré-treinado no COCO e o treina no conjunto de dados de exemplo COCO8 por 100 épocas - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Carrega um modelo YOLOv5n pré-treinado no COCO e executa a inferência na imagem 'bus.jpg' - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## Citações e Agradecimentos - -Se você usar o YOLOv5 ou YOLOv5u em sua pesquisa, por favor, cite o repositório YOLOv5 da Ultralytics da seguinte forma: - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -Observe que os modelos YOLOv5 são fornecidos sob licenças [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) e [Enterprise](https://ultralytics.com/license). diff --git a/docs/pt/models/yolov6.md b/docs/pt/models/yolov6.md deleted file mode 100644 index 4db8e46f229..00000000000 --- a/docs/pt/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: Explore Meituan YOLOv6, um modelo avançado de detecção de objetos que alcança um equilíbrio entre velocidade e precisão. Saiba mais sobre suas características, modelos pré-treinados e uso em Python. -keywords: Meituan YOLOv6, detecção de objetos, Ultralytics, documentação YOLOv6, Concatenação Bidirecional, Treinamento Assistido por Âncora, modelos pré-treinados, aplicações em tempo real ---- - -# Meituan YOLOv6 - -## Visão Geral - -O Meituan YOLOv6 é um detector de objetos de ponta que oferece um equilíbrio notável entre velocidade e precisão, tornando-se uma escolha popular para aplicações em tempo real. Este modelo apresenta várias melhorias em sua arquitetura e esquema de treinamento, incluindo a implementação de um módulo de Concatenação Bidirecional (BiC), uma estratégia de treinamento assistido por âncora (AAT) e um design aprimorado de espinha dorsal e pescoço para obter precisão de última geração no conjunto de dados COCO. - -![Meituan YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![Modelo exemplo de imagem](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**Visão geral do YOLOv6.** Diagrama da arquitetura do modelo mostrando os componentes de rede redesenhados e as estratégias de treinamento que levaram a melhorias significativas no desempenho. (a) O pescoço do YOLOv6 (N e S são mostrados). RepBlocks é substituída por CSPStackRep para M/L. (b) A estrutura de um módulo BiC. (c) Um bloco SimCSPSPPF. ([fonte](https://arxiv.org/pdf/2301.05586.pdf)). - -### Principais Características - -- **Módulo de Concatenação Bidirecional (BiC):** O YOLOv6 introduz um módulo BiC no pescoço do detector, aprimorando os sinais de localização e oferecendo ganhos de desempenho com uma degradação de velocidade insignificante. -- **Estratégia de Treinamento Assistido por Âncora (AAT):** Este modelo propõe AAT para aproveitar os benefícios dos paradigmas baseados em âncoras e sem âncoras sem comprometer a eficiência da inferência. -- **Design de Espinha Dorsal e Pescoço Aprimorado:** Ao aprofundar o YOLOv6 para incluir mais uma etapa na espinha dorsal e no pescoço, este modelo alcança desempenho de última geração no conjunto de dados COCO com entrada de alta resolução. -- **Estratégia de Auto-Destilação:** Uma nova estratégia de auto-destilação é implementada para aumentar o desempenho de modelos menores do YOLOv6, aprimorando o ramo auxiliar de regressão durante o treinamento e removendo-o durante a inferência para evitar uma queda significativa na velocidade. - -## Métricas de Desempenho - -O YOLOv6 fornece vários modelos pré-treinados com diferentes escalas: - -- YOLOv6-N: 37,5% AP na val2017 do COCO a 1187 FPS com GPU NVIDIA Tesla T4. -- YOLOv6-S: 45,0% de AP a 484 FPS. -- YOLOv6-M: 50,0% de AP a 226 FPS. -- YOLOv6-L: 52,8% de AP a 116 FPS. -- YOLOv6-L6: Precisão de última geração em tempo real. - -O YOLOv6 também fornece modelos quantizados para diferentes precisões e modelos otimizados para plataformas móveis. - -## Exemplos de Uso - -Este exemplo fornece exemplos simples de treinamento e inferência do YOLOv6. Para documentação completa sobre esses e outros [modos](../modes/index.md), consulte as páginas de documentação [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) e [Export](../modes/export.md). - -!!! Example "Exemplo" - - === "Python" - - Modelos pré-treinados `*.pt` do PyTorch, assim como arquivos de configuração `*.yaml`, podem ser passados à classe `YOLO()` para criar uma instância do modelo em Python: - - ```python - from ultralytics import YOLO - - # Constrói um modelo YOLOv6n do zero - model = YOLO('yolov6n.yaml') - - # Exibe informações do modelo (opcional) - model.info() - - # Treina o modelo no conjunto de dados de exemplo COCO8 por 100 épocas - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Executa inferência com o modelo YOLOv6n na imagem 'bus.jpg' - results = model('caminho/para/onibus.jpg') - ``` - - === "CLI" - - Comandos da CLI estão disponíveis para executar diretamente os modelos: - - ```bash - # Constrói um modelo YOLOv6n do zero e o treina no conjunto de dados de exemplo COCO8 por 100 épocas - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # Constrói um modelo YOLOv6n do zero e executa inferência na imagem 'bus.jpg' - yolo predict model=yolov6n.yaml source=caminho/para/onibus.jpg - ``` - -## Tarefas e Modos Suportados - -A série YOLOv6 oferece uma variedade de modelos, cada um otimizado para [Detecção de Objetos](../tasks/detect.md) de alta performance. Esses modelos atendem a diferentes necessidades computacionais e requisitos de precisão, tornando-os versáteis para uma ampla variedade de aplicações. - -| Tipo de Modelo | Pesos Pré-treinados | Tarefas Suportadas | Inferência | Validação | Treinamento | Exportação | -|----------------|---------------------|-------------------------------------------|------------|-----------|-------------|------------| -| YOLOv6-N | `yolov6-n.pt` | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [Detecção de Objetos](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Esta tabela fornece uma visão geral detalhada das variantes do modelo YOLOv6, destacando suas capacidades em tarefas de detecção de objetos e sua compatibilidade com vários modos operacionais, como [inferência](../modes/predict.md), [validação](../modes/val.md), [treinamento](../modes/train.md) e [exportação](../modes/export.md). Esse suporte abrangente garante que os usuários possam aproveitar totalmente as capacidades dos modelos YOLOv6 em uma ampla gama de cenários de detecção de objetos. - -## Citações e Agradecimentos - -Gostaríamos de agradecer aos autores por suas contribuições significativas no campo da detecção de objetos em tempo real: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - - O artigo original do YOLOv6 pode ser encontrado no [arXiv](https://arxiv.org/abs/2301.05586). Os autores disponibilizaram publicamente seu trabalho, e o código pode ser acessado no [GitHub](https://github.com/meituan/YOLOv6). Agradecemos seus esforços em avançar no campo e disponibilizar seu trabalho para a comunidade em geral. diff --git a/docs/pt/models/yolov7.md b/docs/pt/models/yolov7.md deleted file mode 100644 index 69896b9e355..00000000000 --- a/docs/pt/models/yolov7.md +++ /dev/null @@ -1,66 +0,0 @@ ---- -comments: true -description: Explore o YOLOv7, um detector de objetos em tempo real. Entenda sua velocidade superior, impressionante precisão e foco exclusivo em otimização treinável de recursos gratuitos. -keywords: YOLOv7, detector de objetos em tempo real, state-of-the-art, Ultralytics, conjunto de dados MS COCO, reparametrização de modelo, atribuição dinâmica de rótulo, escalonamento estendido, escalonamento composto ---- - -# YOLOv7: Treinável Bag-of-Freebies - -O YOLOv7 é um detector de objetos em tempo real state-of-the-art que supera todos os detectores de objetos conhecidos em termos de velocidade e precisão na faixa de 5 FPS a 160 FPS. Ele possui a maior precisão (56,8% de AP) entre todos os detectores de objetos em tempo real conhecidos com 30 FPS ou mais no GPU V100. Além disso, o YOLOv7 supera outros detectores de objetos, como YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5 e muitos outros em velocidade e precisão. O modelo é treinado no conjunto de dados MS COCO do zero, sem usar outros conjuntos de dados ou pesos pré-treinados. O código-fonte para o YOLOv7 está disponível no GitHub. - -![Comparação YOLOv7 com outros detectores de objetos](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**Comparação de detectores de objetos state-of-the-art. -** A partir dos resultados na Tabela 2, sabemos que o método proposto tem a melhor relação velocidade-precisão de forma abrangente. Se compararmos o YOLOv7-tiny-SiLU com o YOLOv5-N (r6.1), nosso método é 127 FPS mais rápido e 10,7% mais preciso em AP. Além disso, o YOLOv7 tem 51,4% de AP em uma taxa de quadros de 161 FPS, enquanto o PPYOLOE-L com o mesmo AP tem apenas uma taxa de quadros de 78 FPS. Em termos de uso de parâmetros, o YOLOv7 é 41% menor do que o PPYOLOE-L. Se compararmos o YOLOv7-X com uma velocidade de inferência de 114 FPS com o YOLOv5-L (r6.1) com uma velocidade de inferência de 99 FPS, o YOLOv7-X pode melhorar o AP em 3,9%. Se o YOLOv7-X for comparado com o YOLOv5-X (r6.1) de escala similar, a velocidade de inferência do YOLOv7-X é 31 FPS mais rápida. Além disso, em termos da quantidade de parâmetros e cálculos, o YOLOv7-X reduz 22% dos parâmetros e 8% dos cálculos em comparação com o YOLOv5-X (r6.1), mas melhora o AP em 2,2% ([Fonte](https://arxiv.org/pdf/2207.02696.pdf)). - -## Visão Geral - -A detecção de objetos em tempo real é um componente importante em muitos sistemas de visão computacional, incluindo rastreamento de múltiplos objetos, direção autônoma, robótica e análise de imagens médicas. Nos últimos anos, o desenvolvimento de detecção de objetos em tempo real tem se concentrado em projetar arquiteturas eficientes e melhorar a velocidade de inferência de várias CPUs, GPUs e unidades de processamento neural (NPUs). O YOLOv7 suporta tanto GPUs móveis quanto dispositivos GPU, desde a borda até a nuvem. - -Ao contrário dos detectores de objetos em tempo real tradicionais que se concentram na otimização de arquitetura, o YOLOv7 introduz um foco na otimização do processo de treinamento. Isso inclui módulos e métodos de otimização projetados para melhorar a precisão da detecção de objetos sem aumentar o custo de inferência, um conceito conhecido como "treinável bag-of-freebies". - -## Recursos Principais - -O YOLOv7 apresenta vários recursos principais: - -1. **Reparametrização do Modelo**: O YOLOv7 propõe um modelo reparametrizado planejado, que é uma estratégia aplicável a camadas em diferentes redes com o conceito de caminho de propagação de gradiente. - -2. **Atribuição Dinâmica de Rótulo**: O treinamento do modelo com várias camadas de saída apresenta um novo problema: "Como atribuir alvos dinâmicos para as saídas de diferentes ramificações?" Para resolver esse problema, o YOLOv7 introduz um novo método de atribuição de rótulo chamado atribuição de rótulo orientada por liderança de granularidade fina (coarse-to-fine). - -3. **Escalonamento Estendido e Composto**: O YOLOv7 propõe métodos de "escalonamento estendido" e "escalonamento composto" para o detector de objetos em tempo real que podem utilizar efetivamente parâmetros e cálculos. - -4. **Eficiência**: O método proposto pelo YOLOv7 pode reduzir efetivamente cerca de 40% dos parâmetros e 50% dos cálculos do detector de objetos em tempo real state-of-the-art, além de apresentar uma velocidade de inferência mais rápida e maior precisão de detecção. - -## Exemplos de Uso - -No momento em que este texto foi escrito, a Ultralytics ainda não oferece suporte aos modelos YOLOv7. Portanto, qualquer usuário interessado em usar o YOLOv7 precisará se referir diretamente ao repositório do YOLOv7 no GitHub para obter instruções de instalação e uso. - -Aqui está uma breve visão geral das etapas típicas que você pode seguir para usar o YOLOv7: - -1. Acesse o repositório do YOLOv7 no GitHub: [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7). - -2. Siga as instruções fornecidas no arquivo README para a instalação. Isso normalmente envolve clonar o repositório, instalar as dependências necessárias e configurar quaisquer variáveis de ambiente necessárias. - -3. Após a conclusão da instalação, você pode treinar e usar o modelo conforme as instruções de uso fornecidas no repositório. Isso geralmente envolve a preparação do conjunto de dados, a configuração dos parâmetros do modelo, o treinamento do modelo e, em seguida, o uso do modelo treinado para realizar a detecção de objetos. - -Observe que as etapas específicas podem variar dependendo do caso de uso específico e do estado atual do repositório do YOLOv7. Portanto, é altamente recomendável consultar diretamente as instruções fornecidas no repositório do YOLOv7 no GitHub. - -Lamentamos qualquer inconveniente que isso possa causar e nos esforçaremos para atualizar este documento com exemplos de uso para a Ultralytics assim que o suporte para o YOLOv7 for implementado. - -## Citações e Agradecimentos - -Gostaríamos de agradecer aos autores do YOLOv7 por suas contribuições significativas no campo da detecção de objetos em tempo real: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -O artigo original do YOLOv7 pode ser encontrado no [arXiv](https://arxiv.org/pdf/2207.02696.pdf). Os autores disponibilizaram publicamente seu trabalho, e o código pode ser acessado no [GitHub](https://github.com/WongKinYiu/yolov7). Agradecemos seus esforços em avançar o campo e tornar seu trabalho acessível à comunidade em geral. diff --git a/docs/pt/models/yolov8.md b/docs/pt/models/yolov8.md deleted file mode 100644 index c6840032e5c..00000000000 --- a/docs/pt/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: Explore as emocionantes características do YOLOv8, a versão mais recente do nosso detector de objetos em tempo real! Saiba como as arquiteturas avançadas, modelos pré-treinados e o equilíbrio ideal entre precisão e velocidade tornam o YOLOv8 a escolha perfeita para as suas tarefas de detecção de objetos. -keywords: YOLOv8, Ultralytics, detector de objetos em tempo real, modelos pré-treinados, documentação, detecção de objetos, série YOLO, arquiteturas avançadas, precisão, velocidade ---- - -# YOLOv8 - -## Visão Geral - -O YOLOv8 é a versão mais recente da série YOLO de detectores de objetos em tempo real, oferecendo um desempenho de ponta em termos de precisão e velocidade. Construindo sobre as inovações das versões anteriores do YOLO, o YOLOv8 introduz novas características e otimizações que o tornam uma escolha ideal para diversas tarefas de detecção de objetos em uma ampla variedade de aplicações. - -![YOLOv8 da Ultralytics](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## Principais Características - -- **Arquiteturas Avançadas de Backbone e Neck:** O YOLOv8 utiliza arquiteturas avançadas de backbone e neck, resultando em uma melhor extração de características e desempenho na detecção de objetos. -- **Anchor-free Split Ultralytics Head:** O YOLOv8 adota um head Ultralytics dividido sem ancoragem, o que contribui para uma melhor precisão e um processo de detecção mais eficiente em comparação com abordagens baseadas em âncoras. -- **Equilíbrio Otimizado entre Precisão e Velocidade:** Com foco em manter um equilíbrio ideal entre precisão e velocidade, o YOLOv8 é adequado para tarefas de detecção de objetos em tempo real em diversas áreas de aplicação. -- **Variedade de Modelos Pré-treinados:** O YOLOv8 oferece uma variedade de modelos pré-treinados para atender a diversas tarefas e requisitos de desempenho, tornando mais fácil encontrar o modelo adequado para o seu caso de uso específico. - -## Tarefas e Modos Suportados - -A série YOLOv8 oferece uma variedade de modelos, cada um especializado em tarefas específicas de visão computacional. Esses modelos são projetados para atender a diversos requisitos, desde a detecção de objetos até tarefas mais complexas, como segmentação de instâncias, detecção de poses/pontos-chave e classificação. - -Cada variante da série YOLOv8 é otimizada para a respectiva tarefa, garantindo alto desempenho e precisão. Além disso, esses modelos são compatíveis com diversos modos operacionais, incluindo [Inferência](../modes/predict.md), [Validação](../modes/val.md), [Treinamento](../modes/train.md) e [Exportação](../modes/export.md), facilitando o uso em diferentes estágios de implantação e desenvolvimento. - -| Modelo | Nomes de Arquivo | Tarefa | Inferência | Validação | Treinamento | Exportação | -|-------------|----------------------------------------------------------------------------------------------------------------|--------------------------------------------------|------------|-----------|-------------|------------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [Detecção](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [Segmentação de Instâncias](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [Pose/Pontos-chave](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [Classificação](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -Esta tabela fornece uma visão geral das variantes de modelos YOLOv8, destacando suas aplicações em tarefas específicas e sua compatibilidade com diversos modos operacionais, como inferência, validação, treinamento e exportação. Ela demonstra a versatilidade e robustez da série YOLOv8, tornando-os adequados para diversas aplicações em visão computacional. - -## Métricas de Desempenho - -!!! Desempenho - - === "Detecção (COCO)" - - Consulte a [Documentação de Detecção](https://docs.ultralytics.com/tasks/detect/) para exemplos de uso com esses modelos treinados no conjunto de dados [COCO](https://docs.ultralytics.com/datasets/detect/coco/), que inclui 80 classes pré-treinadas. - - | Modelo | tamanho
(pixels) | mAPval
50-95 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | parâmetros
(M) | FLOPs
(B) | - | --------------------------------------------------------------------------------------- | ----------------------- | -------------------- | ----------------------------------- | --------------------------------------- | ---------------------- | ------------------ | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37,3 | 80,4 | 0,99 | 3,2 | 8,7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44,9 | 128,4 | 1,20 | 11,2 | 28,6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50,2 | 234,7 | 1,83 | 25,9 | 78,9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52,9 | 375,2 | 2,39 | 43,7 | 165,2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53,9 | 479,1 | 3,53 | 68,2 | 257,8 | - - === "Detecção (Open Images V7)" - - Consulte a [Documentação de Detecção](https://docs.ultralytics.com/tasks/detect/) para exemplos de uso com esses modelos treinados no conjunto de dados [Open Images V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/), que inclui 600 classes pré-treinadas. - - | Modelo | tamanho
(pixels) | mAPval
50-95 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | parâmetros
(M) | FLOPs
(B) | - | ----------------------------------------------------------------------------------------- | ----------------------- | -------------------- | ----------------------------------- | --------------------------------------- | ---------------------- | ------------------ | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18,4 | 142,4 | 1,21 | 3,5 | 10,5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27,7 | 183,1 | 1,40 | 11,4 | 29,7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33,6 | 408,5 | 2,26 | 26,2 | 80,6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34,9 | 596,9 | 2,43 | 44,1 | 167,4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36,3 | 860,6 | 3,56 | 68,7 | 260,6 | - - === "Segmentação (COCO)" - - Consulte a [Documentação de Segmentação](https://docs.ultralytics.com/tasks/segment/) para exemplos de uso com esses modelos treinados no conjunto de dados [COCO](https://docs.ultralytics.com/datasets/segment/coco/), que inclui 80 classes pré-treinadas. - - | Modelo | tamanho
(pixels) | mAPbox
50-95 | mAPmáscara
50-95 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | parâmetros
(M) | FLOPs
(B) | - | ---------------------------------------------------------------------------------------------- | ----------------------- | -------------------- | ------------------------ | ----------------------------------- | --------------------------------------- | ---------------------- | ------------------ | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36,7 | 30,5 | 96,1 | 1,21 | 3,4 | 12,6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44,6 | 36,8 | 155,7 | 1,47 | 11,8 | 42,6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49,9 | 40,8 | 317,0 | 2,18 | 27,3 | 110,2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52,3 | 42,6 | 572,4 | 2,79 | 46,0 | 220,5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53,4 | 43,4 | 712,1 | 4,02 | 71,8 | 344,1 | - - === "Classificação (ImageNet)" - - Consulte a [Documentação de Classificação](https://docs.ultralytics.com/tasks/classify/) para exemplos de uso com esses modelos treinados no conjunto de dados [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/), que inclui 1000 classes pré-treinadas. - - | Modelo | tamanho
(pixels) | acurácia
top1 | acurácia
top5 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | parâmetros
(M) | FLOPs
(B) a 640 | - | ------------------------------------------------------------------------------------------------ | ----------------------- | --------------------- | --------------------- | ----------------------------------- | --------------------------------------- | ---------------------- | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66,6 | 87,0 | 12,9 | 0,31 | 2,7 | 4,3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72,3 | 91,1 | 23,4 | 0,35 | 6,4 | 13,5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76,4 | 93,2 | 85,4 | 0,62 | 17,0 | 42,7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78,0 | 94,1 | 163,0 | 0,87 | 37,5 | 99,7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78,4 | 94,3 | 232,0 | 1,01 | 57,4 | 154,8 | - - === "Pose (COCO)" - - Consulte a [Documentação de Estimativa de Pose](https://docs.ultralytics.com/tasks/segment/) para exemplos de uso com esses modelos treinados no conjunto de dados [COCO](https://docs.ultralytics.com/datasets/pose/coco/), que inclui 1 classe pré-treinada, 'person'. - - | Modelo | tamanho
(pixels) | mAPpose
50-95 | mAPpose
50 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | parâmetros
(M) | FLOPs
(B) | - | ---------------------------------------------------------------------------------------------- | ----------------------- | --------------------- | ------------------ | ----------------------------------- | --------------------------------------- | ---------------------- | ------------------ | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50,4 | 80,1 | 131,8 | 1,18 | 3,3 | 9,2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60,0 | 86,2 | 233,2 | 1,42 | 11,6 | 30,2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65,0 | 88,8 | 456,3 | 2,00 | 26,4 | 81,0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67,6 | 90,0 | 784,5 | 2,59 | 44,4 | 168,6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69,2 | 90,2 | 1607,1 | 3,73 | 69,4 | 263,2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71,6 | 91,2 | 4088,7 | 10,04 | 99,1 | 1066,4 | - -## Exemplos de Uso - -Este exemplo fornece exemplos simples de treinamento e inferência do YOLOv8. Para a documentação completa desses e outros [modos](../modes/index.md), consulte as páginas de documentação [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) e [Export](../modes/export.md). - -Observe que o exemplo abaixo é para modelos YOLOv8 de [Detecção](../tasks/detect.md) para detecção de objetos. Para outras tarefas suportadas, consulte a documentação de [Segmentação](../tasks/segment.md), [Classificação](../tasks/classify.md) e [Pose](../tasks/pose.md). - -!!! Example "Exemplo" - - === "Python" - - Modelos pré-treinados `*.pt` PyTorch, bem como arquivos de configuração `*.yaml`, podem ser passados para a classe `YOLO()` para criar uma instância do modelo em Python: - - ```python - from ultralytics import YOLO - - # Carregar um modelo YOLOv8n pré-treinado para COCO - model = YOLO('yolov8n.pt') - - # Exibir informações do modelo (opcional) - model.info() - - # Treinar o modelo no exemplo de conjunto de dados COCO8 por 100 épocas - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Executar inferência com o modelo YOLOv8n na imagem 'bus.jpg' - results = model('caminho/para/bus.jpg') - ``` - - === "CLI" - - Comandos da CLI estão disponíveis para executar os modelos diretamente: - - ```bash - # Carregar um modelo YOLOv8n pré-treinado para COCO e treiná-lo no exemplo de conjunto de dados COCO8 por 100 épocas - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Carregar um modelo YOLOv8n pré-treinado para COCO e executar inferência na imagem 'bus.jpg' - yolo predict model=yolov8n.pt source=caminho/para/bus.jpg - ``` - -## Citações e Reconhecimentos - -Se você utilizar o modelo YOLOv8 ou qualquer outro software deste repositório em seu trabalho, por favor cite-o utilizando o formato abaixo: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -Observe que o DOI está pendente e será adicionado à citação assim que estiver disponível. Os modelos YOLOv8 são disponibilizados sob as licenças [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) e [Enterprise](https://ultralytics.com/license). diff --git a/docs/pt/modes/benchmark.md b/docs/pt/modes/benchmark.md deleted file mode 100644 index f311481a4bc..00000000000 --- a/docs/pt/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: Aprenda a avaliar a velocidade e a precisão do YOLOv8 em diversos formatos de exportação; obtenha informações sobre métricas mAP50-95, accuracy_top5 e mais. -keywords: Ultralytics, YOLOv8, benchmarking, perfilagem de velocidade, perfilagem de precisão, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, formatos de exportação YOLO ---- - -# Benchmarking de Modelos com o Ultralytics YOLO - -Ecossistema Ultralytics YOLO e integrações - -## Introdução - -Uma vez que seu modelo esteja treinado e validado, o próximo passo lógico é avaliar seu desempenho em diversos cenários do mundo real. O modo de benchmark no Ultralytics YOLOv8 serve a esse propósito, oferecendo uma estrutura robusta para avaliar a velocidade e a precisão do seu modelo em uma gama de formatos de exportação. - -## Por Que o Benchmarking é Crucial? - -- **Decisões Informadas:** Obtenha insights sobre o equilíbrio entre velocidade e precisão. -- **Alocação de Recursos:** Entenda como diferentes formatos de exportação se comportam em diferentes hardwares. -- **Otimização:** Aprenda qual formato de exportação oferece o melhor desempenho para o seu caso específico. -- **Eficiência de Custos:** Faça uso mais eficiente dos recursos de hardware com base nos resultados do benchmark. - -### Métricas Chave no Modo de Benchmark - -- **mAP50-95:** Para detecção de objetos, segmentação e estimativa de pose. -- **accuracy_top5:** Para classificação de imagens. -- **Tempo de Inferência:** Tempo levado para cada imagem em milissegundos. - -### Formatos de Exportação Suportados - -- **ONNX:** Para desempenho ótimo em CPU -- **TensorRT:** Para eficiência máxima em GPU -- **OpenVINO:** Para otimização em hardware Intel -- **CoreML, TensorFlow SavedModel e Mais:** Para uma variedade de necessidades de implantação. - -!!! Tip "Dica" - - * Exporte para ONNX ou OpenVINO para acelerar até 3x a velocidade em CPU. - * Exporte para TensorRT para acelerar até 5x em GPU. - -## Exemplos de Uso - -Execute benchmarks do YOLOv8n em todos os formatos de exportação suportados incluindo ONNX, TensorRT etc. Consulte a seção Argumentos abaixo para ver uma lista completa de argumentos de exportação. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # Benchmark na GPU - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## Argumentos - -Argumentos como `model`, `data`, `imgsz`, `half`, `device` e `verbose` proporcionam aos usuários flexibilidade para ajustar os benchmarks às suas necessidades específicas e comparar o desempenho de diferentes formatos de exportação com facilidade. - -| Chave | Valor | Descrição | -|-----------|---------|----------------------------------------------------------------------------------------| -| `model` | `None` | caminho para o arquivo do modelo, ou seja, yolov8n.pt, yolov8n.yaml | -| `data` | `None` | caminho para o YAML com dataset de benchmarking (sob o rótulo `val`) | -| `imgsz` | `640` | tamanho da imagem como um escalar ou lista (h, w), ou seja, (640, 480) | -| `half` | `False` | quantização FP16 | -| `int8` | `False` | quantização INT8 | -| `device` | `None` | dispositivo para execução, ou seja, dispositivo cuda=0 ou device=0,1,2,3 ou device=cpu | -| `verbose` | `False` | não continuar em erro (bool), ou limiar mínimo para val (float) | - -## Formatos de Exportação - -Os benchmarks tentarão executar automaticamente em todos os possíveis formatos de exportação listados abaixo. - -| Formato | Argumento `format` | Modelo | Metadados | Argumentos | -|-----------------------------------------------------------------------|--------------------|---------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [Modelo Salvo do TF](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [GraphDef do TF](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Veja os detalhes completos de `exportação` na página [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/pt/modes/export.md b/docs/pt/modes/export.md deleted file mode 100644 index a6cb313b605..00000000000 --- a/docs/pt/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: Guia passo a passo sobre como exportar seus modelos YOLOv8 para vários formatos como ONNX, TensorRT, CoreML e mais para implantação. Explore agora! -keywords: YOLO, YOLOv8, Ultralytics, Exportação de modelo, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, exportar modelo ---- - -# Exportação de Modelo com Ultralytics YOLO - -Ecossistema Ultralytics YOLO e integrações - -## Introdução - -O objetivo final de treinar um modelo é implantá-lo para aplicações no mundo real. O modo de exportação no Ultralytics YOLOv8 oferece uma ampla gama de opções para exportar seu modelo treinado para diferentes formatos, tornando-o implantável em várias plataformas e dispositivos. Este guia abrangente visa orientá-lo através das nuances da exportação de modelos, mostrando como alcançar a máxima compatibilidade e performance. - -

-
- -
- Assista: Como Exportar Modelo Treinado Customizado do Ultralytics YOLOv8 e Executar Inferência ao Vivo na Webcam. -

- -## Por Que Escolher o Modo de Exportação do YOLOv8? - -- **Versatilidade:** Exporte para múltiplos formatos incluindo ONNX, TensorRT, CoreML e mais. -- **Performance:** Ganhe até 5x aceleração em GPU com TensorRT e 3x aceleração em CPU com ONNX ou OpenVINO. -- **Compatibilidade:** Torne seu modelo universalmente implantável em numerosos ambientes de hardware e software. -- **Facilidade de Uso:** Interface de linha de comando simples e API Python para exportação rápida e direta de modelos. - -### Principais Recursos do Modo de Exportação - -Aqui estão algumas das funcionalidades de destaque: - -- **Exportação com Um Clique:** Comandos simples para exportação em diferentes formatos. -- **Exportação em Lote:** Exporte modelos capazes de inferência em lote. -- **Inferência Otimizada:** Modelos exportados são otimizados para tempos de inferência mais rápidos. -- **Vídeos Tutoriais:** Guias e tutoriais detalhados para uma experiência de exportação tranquila. - -!!! Tip "Dica" - - * Exporte para ONNX ou OpenVINO para até 3x aceleração em CPU. - * Exporte para TensorRT para até 5x aceleração em GPU. - -## Exemplos de Uso - -Exporte um modelo YOLOv8n para um formato diferente como ONNX ou TensorRT. Veja a seção de Argumentos abaixo para uma lista completa dos argumentos de exportação. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.pt') # carrega um modelo oficial - model = YOLO('caminho/para/best.pt') # carrega um modelo treinado personalizado - - # Exportar o modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # exporta modelo oficial - yolo export model=caminho/para/best.pt format=onnx # exporta modelo treinado personalizado - ``` - -## Argumentos - -Configurações de exportação para modelos YOLO referem-se às várias configurações e opções usadas para salvar ou exportar o modelo para uso em outros ambientes ou plataformas. Essas configurações podem afetar a performance, tamanho e compatibilidade do modelo com diferentes sistemas. Algumas configurações comuns de exportação de YOLO incluem o formato do arquivo de modelo exportado (por exemplo, ONNX, TensorFlow SavedModel), o dispositivo em que o modelo será executado (por exemplo, CPU, GPU) e a presença de recursos adicionais como máscaras ou múltiplos rótulos por caixa. Outros fatores que podem afetar o processo de exportação incluem a tarefa específica para a qual o modelo está sendo usado e os requisitos ou restrições do ambiente ou plataforma alvo. É importante considerar e configurar cuidadosamente essas configurações para garantir que o modelo exportado seja otimizado para o caso de uso pretendido e possa ser usado eficazmente no ambiente alvo. - -| Chave | Valor | Descrição | -|-------------|-----------------|---------------------------------------------------------------------| -| `format` | `'torchscript'` | formato para exportação | -| `imgsz` | `640` | tamanho da imagem como escalar ou lista (h, w), ou seja, (640, 480) | -| `keras` | `False` | usar Keras para exportação TF SavedModel | -| `optimize` | `False` | TorchScript: otimizar para mobile | -| `half` | `False` | quantização FP16 | -| `int8` | `False` | quantização INT8 | -| `dynamic` | `False` | ONNX/TensorRT: eixos dinâmicos | -| `simplify` | `False` | ONNX/TensorRT: simplificar modelo | -| `opset` | `None` | ONNX: versão do opset (opcional, padrão para a mais recente) | -| `workspace` | `4` | TensorRT: tamanho do espaço de trabalho (GB) | -| `nms` | `False` | CoreML: adicionar NMS | - -## Formatos de Exportação - -Os formatos de exportação disponíveis para YOLOv8 estão na tabela abaixo. Você pode exportar para qualquer formato usando o argumento `format`, ou seja, `format='onnx'` ou `format='engine'`. - -| Formato | Argumento `format` | Modelo | Metadados | Argumentos | -|--------------------------------------------------------------------|--------------------|---------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/pt/modes/index.md b/docs/pt/modes/index.md deleted file mode 100644 index 332489b8103..00000000000 --- a/docs/pt/modes/index.md +++ /dev/null @@ -1,73 +0,0 @@ ---- -comments: true -description: Da treinamento a rastreamento, aproveite ao máximo o YOLOv8 da Ultralytics. Obtenha insights e exemplos para cada modo suportado, incluindo validação, exportação e benchmarking. -keywords: Ultralytics, YOLOv8, Aprendizado de Máquina, Detecção de Objetos, Treinamento, Validação, Predição, Exportação, Rastreamento, Benchmarking ---- - -# Modos Ultralytics YOLOv8 - -Ecossistema e integrações do Ultralytics YOLO - -## Introdução - -O Ultralytics YOLOv8 não é apenas mais um modelo de detecção de objetos; é um framework versátil projetado para cobrir todo o ciclo de vida dos modelos de aprendizado de máquina — desde a ingestão de dados e treinamento do modelo até a validação, implantação e rastreamento no mundo real. Cada modo serve a um propósito específico e é projetado para oferecer a flexibilidade e eficiência necessárias para diferentes tarefas e casos de uso. - -

-
- -
- Assista: Tutorial dos Modos Ultralytics: Treinar, Validar, Prever, Exportar e Benchmark. -

- -### Visão Geral dos Modos - -Entender os diferentes **modos** que o Ultralytics YOLOv8 suporta é crítico para tirar o máximo proveito de seus modelos: - -- **Modo Treino**: Ajuste fino do seu modelo em conjuntos de dados personalizados ou pré-carregados. -- **Modo Validação (Val)**: Um checkpoint pós-treinamento para validar o desempenho do modelo. -- **Modo Predição (Predict)**: Libere o poder preditivo do seu modelo em dados do mundo real. -- **Modo Exportação (Export)**: Prepare seu modelo para implantação em vários formatos. -- **Modo Rastreamento (Track)**: Estenda seu modelo de detecção de objetos para aplicações de rastreamento em tempo real. -- **Modo Benchmarking**: Analise a velocidade e precisão do seu modelo em diversos ambientes de implantação. - -Este guia abrangente visa fornecer uma visão geral e insights práticos para cada modo, ajudando você a aproveitar o potencial total do YOLOv8. - -## [Treinar](train.md) - -O modo Treinar é utilizado para treinar um modelo YOLOv8 em um conjunto de dados personalizado. Neste modo, o modelo é treinado usando o conjunto de dados especificado e os hiperparâmetros escolhidos. O processo de treinamento envolve otimizar os parâmetros do modelo para que ele possa prever com precisão as classes e localizações de objetos em uma imagem. - -[Exemplos de Treino](train.md){ .md-button } - -## [Validar](val.md) - -O modo Validar é utilizado para validar um modelo YOLOv8 após ter sido treinado. Neste modo, o modelo é avaliado em um conjunto de validação para medir sua precisão e desempenho de generalização. Este modo pode ser usado para ajustar os hiperparâmetros do modelo para melhorar seu desempenho. - -[Exemplos de Validação](val.md){ .md-button } - -## [Prever](predict.md) - -O modo Prever é utilizado para fazer previsões usando um modelo YOLOv8 treinado em novas imagens ou vídeos. Neste modo, o modelo é carregado de um arquivo de checkpoint, e o usuário pode fornecer imagens ou vídeos para realizar a inferência. O modelo prevê as classes e localizações dos objetos nas imagens ou vídeos fornecidos. - -[Exemplos de Predição](predict.md){ .md-button } - -## [Exportar](export.md) - -O modo Exportar é utilizado para exportar um modelo YOLOv8 para um formato que possa ser utilizado para implantação. Neste modo, o modelo é convertido para um formato que possa ser utilizado por outras aplicações de software ou dispositivos de hardware. Este modo é útil ao implantar o modelo em ambientes de produção. - -[Exemplos de Exportação](export.md){ .md-button } - -## [Rastrear](track.md) - -O modo Rastrear é utilizado para rastrear objetos em tempo real usando um modelo YOLOv8. Neste modo, o modelo é carregado de um arquivo de checkpoint, e o usuário pode fornecer um fluxo de vídeo ao vivo para realizar o rastreamento de objetos em tempo real. Este modo é útil para aplicações como sistemas de vigilância ou carros autônomos. - -[Exemplos de Rastreamento](track.md){ .md-button } - -## [Benchmark](benchmark.md) - -O modo Benchmark é utilizado para fazer um perfil da velocidade e precisão de vários formatos de exportação para o YOLOv8. Os benchmarks fornecem informações sobre o tamanho do formato exportado, suas métricas `mAP50-95` (para detecção de objetos, segmentação e pose) ou `accuracy_top5` (para classificação), e o tempo de inferência em milissegundos por imagem em diversos formatos de exportação, como ONNX, OpenVINO, TensorRT e outros. Essas informações podem ajudar os usuários a escolher o formato de exportação ótimo para seu caso de uso específico, com base em seus requisitos de velocidade e precisão. - -[Exemplos de Benchmark](benchmark.md){ .md-button } diff --git a/docs/pt/modes/predict.md b/docs/pt/modes/predict.md deleted file mode 100644 index b08b7e9a83c..00000000000 --- a/docs/pt/modes/predict.md +++ /dev/null @@ -1,227 +0,0 @@ ---- -comments: true -description: Descubra como usar o modo predict do YOLOv8 para diversas tarefas. Aprenda sobre diferentes fontes de inferência, como imagens, vídeos e formatos de dados. -keywords: Ultralytics, YOLOv8, modo predict, fontes de inferência, tarefas de previsão, modo de streaming, processamento de imagens, processamento de vídeo, aprendizado de máquina, IA ---- - -# Predição de Modelo com Ultralytics YOLO - -Ecossistema e integrações do Ultralytics YOLO - -## Introdução - -No mundo do aprendizado de máquina e visão computacional, o processo de fazer sentido a partir de dados visuais é chamado de 'inferência' ou 'predição'. O Ultralytics YOLOv8 oferece um recurso poderoso conhecido como **modo predict** que é personalizado para inferência em tempo real de alto desempenho em uma ampla gama de fontes de dados. - -

-
- -
- Assista: Como Extrair as Saídas do Modelo Ultralytics YOLOv8 para Projetos Personalizados. -

- -## Aplicações no Mundo Real - -| Manufatura | Esportes | Segurança | -|:-----------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------------------:|:----------------------------------------------------------------------------------------------------------------------------------:| -| ![Detecção de Peças de Reposição de Veículo](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1) | ![Detecção de Jogador de Futebol](https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442) | ![Detecção de Queda de Pessoas](https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43) | -| Detecção de Peças de Reposição de Veículo | Detecção de Jogador de Futebol | Detecção de Queda de Pessoas | - -## Por Que Usar o Ultralytics YOLO para Inferência? - -Aqui está o porquê de você considerar o modo predict do YOLOv8 para suas diversas necessidades de inferência: - -- **Versatilidade:** Capaz de fazer inferências em imagens, vídeos e até transmissões ao vivo. -- **Desempenho:** Projetado para processamento em tempo real e de alta velocidade sem sacrificar a precisão. -- **Facilidade de Uso:** Interfaces Python e CLI intuitivas para implantação e testes rápidos. -- **Altamente Customizável:** Várias configurações e parâmetros para ajustar o comportamento de inferência do modelo de acordo com suas necessidades específicas. - -### Recursos Chave do Modo Predict - -O modo predict do YOLOv8 é projetado para ser robusto e versátil, apresentando: - -- **Compatibilidade com Múltiplas Fontes de Dados:** Se seus dados estão na forma de imagens individuais, uma coleção de imagens, arquivos de vídeo ou transmissões de vídeo em tempo real, o modo predict atende a todas as necessidades. -- **Modo de Streaming:** Use o recurso de streaming para gerar um gerador eficiente de memória de objetos `Results`. Ative isso definindo `stream=True` no método de chamada do preditor. -- **Processamento em Lote:** A capacidade de processar várias imagens ou quadros de vídeo em um único lote, acelerando ainda mais o tempo de inferência. -- **Integração Amigável:** Integração fácil com pipelines de dados existentes e outros componentes de software, graças à sua API flexível. - -Os modelos Ultralytics YOLO retornam ou uma lista de objetos `Results` em Python, ou um gerador em Python eficiente de memória de objetos `Results` quando `stream=True` é passado para o modelo durante a inferência: - -!!! Example "Predict" - - === "Retorna uma lista com `stream=False`" - ```python - from ultralytics import YOLO - - # Carrega um modelo - model = YOLO('yolov8n.pt') # modelo YOLOv8n pré-treinado - - # Executa a inferência em lote em uma lista de imagens - results = model(['im1.jpg', 'im2.jpg']) # retorna uma lista de objetos Results - - # Processa a lista de resultados - for result in results: - boxes = result.boxes # Objeto Boxes para saídas de bbox - masks = result.masks # Objeto Masks para saídas de máscaras de segmentação - keypoints = result.keypoints # Objeto Keypoints para saídas de pose - probs = result.probs # Objeto Probs para saídas de classificação - ``` - - === "Retorna um gerador com `stream=True`" - ```python - from ultralytics import YOLO - - # Carrega um modelo - model = YOLO('yolov8n.pt') # modelo YOLOv8n pré-treinado - - # Executa a inferência em lote em uma lista de imagens - results = model(['im1.jpg', 'im2.jpg'], stream=True) # retorna um gerador de objetos Results - - # Processa o gerador de resultados - for result in results: - boxes = result.boxes # Objeto Boxes para saídas de bbox - masks = result.masks # Objeto Masks para saídas de máscaras de segmentação - keypoints = result.keypoints # Objeto Keypoints para saídas de pose - probs = result.probs # Objeto Probs para saídas de classificação - ``` - -## Fontes de Inferência - -O YOLOv8 pode processar diferentes tipos de fontes de entrada para inferência, conforme mostrado na tabela abaixo. As fontes incluem imagens estáticas, transmissões de vídeo e vários formatos de dados. A tabela também indica se cada fonte pode ser usada no modo de streaming com o argumento `stream=True` ✅. O modo de streaming é benéfico para processar vídeos ou transmissões ao vivo, pois cria um gerador de resultados em vez de carregar todos os quadros na memória. - -!!! Tip "Dica" - - Use `stream=True` para processar vídeos longos ou grandes conjuntos de dados para gerenciar a memória de forma eficiente. Quando `stream=False`, os resultados de todos os quadros ou pontos de dados são armazenados na memória, o que pode aumentar rapidamente e causar erros de falta de memória para grandes entradas. Em contraste, `stream=True` utiliza um gerador, que mantém apenas os resultados do quadro atual ou ponto de dados na memória, reduzindo significativamente o consumo de memória e prevenindo problemas de falta dela. - -| Fonte | Argumento | Tipo | Notas | -|-----------------|--------------------------------------------|-----------------|-------------------------------------------------------------------------------------------------------------------------| -| imagem | `'image.jpg'` | `str` ou `Path` | Arquivo de imagem único. | -| URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | URL para uma imagem. | -| captura de tela | `'screen'` | `str` | Captura uma captura de tela. | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | Formato HWC com canais RGB. | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | Formato HWC com canais BGR `uint8 (0-255)`. | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | Formato HWC com canais BGR `uint8 (0-255)`. | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | Formato BCHW com canais RGB `float32 (0.0-1.0)`. | -| CSV | `'sources.csv'` | `str` ou `Path` | Arquivo CSV contendo caminhos para imagens, vídeos ou diretórios. | -| vídeo ✅ | `'video.mp4'` | `str` ou `Path` | Arquivo de vídeo em formatos como MP4, AVI, etc. | -| diretório ✅ | `'path/'` | `str` ou `Path` | Caminho para um diretório contendo imagens ou vídeos. | -| glob ✅ | `'path/*.jpg'` | `str` | Padrão glob para combinar vários arquivos. Use o caractere `*` como curinga. | -| YouTube ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | URL para um vídeo do YouTube. | -| stream ✅ | `'rtsp://example.com/media.mp4'` | `str` | URL para protocolos de streaming como RTSP, RTMP, TCP ou um endereço IP. | -| multi-stream ✅ | `'list.streams'` | `str` ou `Path` | Arquivo de texto `*.streams` com uma URL de stream por linha, ou seja, 8 streams serão executados em lote de tamanho 8. | - -Abaixo estão exemplos de código para usar cada tipo de fonte: - -!!! Example "Fontes de previsão" - - === "imagem" - Executa a inferência em um arquivo de imagem. - ```python - from ultralytics import YOLO - - # Carrega um modelo YOLOv8n pré-treinado - model = YOLO('yolov8n.pt') - - # Define o caminho para o arquivo de imagem - source = 'caminho/para/imagem.jpg' - - # Executa a inferência na fonte - results = model(source) # lista de objetos Results - ``` - - === "captura de tela" - Executa a inferência no conteúdo atual da tela como uma captura de tela. - ```python - from ultralytics import YOLO - - # Carrega um modelo YOLOv8n pré-treinado - model = YOLO('yolov8n.pt') - - # Define a captura de tela atual como fonte - source = 'screen' - - # Executa a inferência na fonte - results = model(source) # lista de objetos Results - ``` - - === "URL" - Executa a inferência em uma imagem ou vídeo hospedado remotamente via URL. - ```python - from ultralytics import YOLO - - # Carrega um modelo YOLOv8n pré-treinado - model = YOLO('yolov8n.pt') - - # Define a URL remota da imagem ou vídeo - source = 'https://ultralytics.com/images/bus.jpg' - - # Executa a inferência na fonte - results = model(source) # lista de objetos Results - ``` - - === "PIL" - Executa a inferência em uma imagem aberta com a Biblioteca de Imagens do Python (PIL). - ```python - from PIL import Image - from ultralytics import YOLO - - # Carrega um modelo YOLOv8n pré-treinado - model = YOLO('yolov8n.pt') - - # Abre uma imagem usando PIL - source = Image.open('caminho/para/imagem.jpg') - - # Executa a inferência na fonte - results = model(source) # lista de objetos Results - ``` - - === "OpenCV" - Executa a inferência em uma imagem lida com OpenCV. - ```python - import cv2 - from ultralytics import YOLO - - # Carrega um modelo YOLOv8n pré-treinado - model = YOLO('yolov8n.pt') - - # Lê uma imagem usando OpenCV - source = cv2.imread('caminho/para/imagem.jpg') - - # Executa a inferência na fonte - results = model(source) # lista de objetos Results - ``` - - === "numpy" - Executa a inferência em uma imagem representada como um array numpy. - ```python - import numpy as np - from ultralytics import YOLO - - # Carrega um modelo YOLOv8n pré-treinado - model = YOLO('yolov8n.pt') - - # Cria um array random de numpy com forma HWC (640, 640, 3) com valores no intervalo [0, 255] e tipo uint8 - source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') - - # Executa a inferência na fonte - results = model(source) # lista de objetos Results - ``` - - === "torch" - Executa a inferência em uma imagem representada como um tensor PyTorch. - ```python - import torch - from ultralytics import YOLO - - # Carrega um modelo YOLOv8n pré-treinado - model = YOLO('yolov8n.pt') - - # Cria um tensor random de torch com forma BCHW (1, 3, 640, 640) com valores no intervalo [0, 1] e tipo float32 - source = torch.rand(1, 3, 640, 640, dtype=torch.float32) - - # Executa a inferência na fonte - results = model(source) # lista de objetos Results - ``` diff --git a/docs/pt/modes/track.md b/docs/pt/modes/track.md deleted file mode 100644 index b2148f80589..00000000000 --- a/docs/pt/modes/track.md +++ /dev/null @@ -1,200 +0,0 @@ ---- -comments: true -description: Aprenda a usar o Ultralytics YOLO para rastreamento de objetos em fluxos de vídeo. Guias para usar diferentes rastreadores e personalizar configurações de rastreador. -keywords: Ultralytics, YOLO, rastreamento de objetos, fluxos de vídeo, BoT-SORT, ByteTrack, guia em Python, guia CLI ---- - -# Rastreamento de Múltiplos Objetos com Ultralytics YOLO - -Exemplos de rastreamento de múltiplos objetos - -Rastreamento de objetos no âmbito da análise de vídeo é uma tarefa crucial que não apenas identifica a localização e classe dos objetos dentro do quadro, mas também mantém um ID único para cada objeto detectado à medida que o vídeo avança. As aplicações são ilimitadas — variando desde vigilância e segurança até análises esportivas em tempo real. - -## Por Que Escolher Ultralytics YOLO para Rastreamento de Objetos? - -A saída dos rastreadores da Ultralytics é consistente com a detecção de objetos padrão, mas com o valor agregado dos IDs dos objetos. Isso facilita o rastreamento de objetos em fluxos de vídeo e a realização de análises subsequentes. Aqui está o porquê de considerar usar Ultralytics YOLO para suas necessidades de rastreamento de objetos: - -- **Eficiência:** Processa fluxos de vídeo em tempo real sem comprometer a precisão. -- **Flexibilidade:** Suporta múltiplos algoritmos de rastreamento e configurações. -- **Facilidade de Uso:** Simples API em Python e opções CLI para rápida integração e implantação. -- **Personalização:** Fácil de usar com modelos YOLO treinados personalizados, permitindo integração em aplicações específicas de domínio. - -

-
- -
- Assistir: Detecção e Rastreamento de Objetos com Ultralytics YOLOv8. -

- -## Aplicações no Mundo Real - -| Transporte | Varejo | Aquicultura | -|:------------------------------------------------------------------------------------------------------------------------------:|:-----------------------------------------------------------------------------------------------------------------------------:|:----------------------------------------------------------------------------------------------------------------------------:| -| ![Rastreamento de Veículos](https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab) | ![Rastreamento de Pessoas](https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527) | ![Rastreamento de Peixes](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142) | -| Rastreamento de Veículos | Rastreamento de Pessoas | Rastreamento de Peixes | - -## Características em Destaque - -Ultralytics YOLO estende suas funcionalidades de detecção de objetos para fornecer rastreamento de objetos robusto e versátil: - -- **Rastreamento em Tempo Real:** Acompanha objetos de forma contínua em vídeos de alta taxa de quadros. -- **Suporte a Múltiplos Rastreadores:** Escolha dentre uma variedade de algoritmos de rastreamento estabelecidos. -- **Configurações de Rastreador Personalizáveis:** Adapte o algoritmo de rastreamento para atender requisitos específicos ajustando vários parâmetros. - -## Rastreadores Disponíveis - -Ultralytics YOLO suporta os seguintes algoritmos de rastreamento. Eles podem ser ativados passando o respectivo arquivo de configuração YAML, como `tracker=tracker_type.yaml`: - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - Use `botsort.yaml` para ativar este rastreador. -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - Use `bytetrack.yaml` para ativar este rastreador. - -O rastreador padrão é o BoT-SORT. - -## Rastreamento - -Para executar o rastreador em fluxos de vídeo, use um modelo Detect, Segment ou Pose treinado, como YOLOv8n, YOLOv8n-seg e YOLOv8n-pose. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo oficial ou personalizado - model = YOLO('yolov8n.pt') # Carregar um modelo Detect oficial - model = YOLO('yolov8n-seg.pt') # Carregar um modelo Segment oficial - model = YOLO('yolov8n-pose.pt') # Carregar um modelo Pose oficial - model = YOLO('caminho/para/melhor.pt') # Carregar um modelo treinado personalizado - - # Realizar rastreamento com o modelo - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # Rastreamento com rastreador padrão - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # Rastreamento com o rastreador ByteTrack - ``` - - === "CLI" - - ```bash - # Realizar rastreamento com vários modelos usando a interface de linha de comando - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # Modelo Detect oficial - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # Modelo Segment oficial - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # Modelo Pose oficial - yolo track model=caminho/para/melhor.pt source="https://youtu.be/LNwODJXcvt4" # Modelo treinado personalizado - - # Rastrear usando o rastreador ByteTrack - yolo track model=caminho/para/melhor.pt tracker="bytetrack.yaml" - ``` - -Como pode ser visto no uso acima, o rastreamento está disponível para todos os modelos Detect, Segment e Pose executados em vídeos ou fontes de streaming. - -## Configuração - -### Argumentos de Rastreamento - -A configuração de rastreamento compartilha propriedades com o modo Predict, como `conf`, `iou`, e `show`. Para mais configurações, consulte a página de [Predict](https://docs.ultralytics.com/modes/predict/) model page. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Configurar os parâmetros de rastreamento e executar o rastreador - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # Configurar parâmetros de rastreamento e executar o rastreador usando a interface de linha de comando - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### Seleção de Rastreador - -A Ultralytics também permite que você use um arquivo de configuração de rastreador modificado. Para fazer isso, simplesmente faça uma cópia de um arquivo de configuração de rastreador (por exemplo, `custom_tracker.yaml`) de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) e modifique quaisquer configurações (exceto `tracker_type`) conforme suas necessidades. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar o modelo e executar o rastreador com um arquivo de configuração personalizado - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # Carregar o modelo e executar o rastreador com um arquivo de configuração personalizado usando a interface de linha de comando - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -Para uma lista completa de argumentos de rastreamento, consulte a página [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers). - -## Exemplos em Python - -### Loop de Persistência de Rastreamentos - -Aqui está um script em Python usando OpenCV (`cv2`) e YOLOv8 para executar rastreamento de objetos em quadros de vídeo. Este script ainda pressupõe que você já instalou os pacotes necessários (`opencv-python` e `ultralytics`). O argumento `persist=True` indica ao rastreador que a imagem ou quadro atual é o próximo de uma sequência e que espera rastreamentos da imagem anterior na imagem atual. - -!!! Example "Loop de fluxo com rastreamento" - - ```python - import cv2 - from ultralytics import YOLO - - # Carregar o modelo YOLOv8 - model = YOLO('yolov8n.pt') - - # Abrir o arquivo de vídeo - video_path = "caminho/para/video.mp4" - cap = cv2.VideoCapture(video_path) - - # Repetir através dos quadros de vídeo - while cap.isOpened(): - # Ler um quadro do vídeo - success, frame = cap.read() - - if success: - # Executar rastreamento YOLOv8 no quadro, persistindo rastreamentos entre quadros - results = model.track(frame, persist=True) - - # Visualizar os resultados no quadro - annotated_frame = results[0].plot() - - # Exibir o quadro anotado - cv2.imshow("Rastreamento YOLOv8", annotated_frame) - - # Interromper o loop se 'q' for pressionado - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # Interromper o loop se o fim do vídeo for atingido - break - - # Liberar o objeto de captura de vídeo e fechar a janela de exibição - cap.release() - cv2.destroyAllWindows() - ``` - -Note a mudança de `model(frame)` para `model.track(frame)`, que habilita o rastreamento de objetos ao invés de detecção simples. Este script modificado irá executar o rastreador em cada quadro do vídeo, visualizar os resultados e exibi-los em uma janela. O loop pode ser encerrado pressionando 'q'. - -## Contribuir com Novos Rastreadores - -Você é proficiente em rastreamento de múltiplos objetos e implementou ou adaptou com sucesso um algoritmo de rastreamento com Ultralytics YOLO? Convidamos você a contribuir para nossa seção de Rastreadores em [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)! Suas aplicações do mundo real e soluções podem ser inestimáveis para usuários trabalhando em tarefas de rastreamento. - -Ao contribuir para esta seção, você ajuda a expandir o escopo de soluções de rastreamento disponíveis dentro do framework Ultralytics YOLO, adicionando outra camada de funcionalidade e utilidade para a comunidade. - -Para iniciar sua contribuição, por favor, consulte nosso [Guia de Contribuição](https://docs.ultralytics.com/help/contributing) para instruções completas sobre como enviar um Pedido de Pull (PR) 🛠️. Estamos ansiosos para ver o que você traz para a mesa! - -Juntos, vamos aprimorar as capacidades de rastreamento do ecossistema Ultralytics YOLO 🙏! diff --git a/docs/pt/modes/train.md b/docs/pt/modes/train.md deleted file mode 100644 index b677b4b61a7..00000000000 --- a/docs/pt/modes/train.md +++ /dev/null @@ -1,206 +0,0 @@ ---- -comments: true -description: Guia passo a passo para treinar modelos YOLOv8 com a YOLO da Ultralytics, incluindo exemplos de treinamento com uma única GPU e múltiplas GPUs -keywords: Ultralytics, YOLOv8, YOLO, detecção de objetos, modo de treino, conjunto de dados personalizado, treinamento com GPU, multi-GPU, hiperparâmetros, exemplos de CLI, exemplos em Python ---- - -# Treinamento de Modelos com a YOLO da Ultralytics - -Ecossistema e integrações da YOLO da Ultralytics - -## Introdução - -O treinamento de um modelo de aprendizado profundo envolve fornecer dados e ajustar seus parâmetros para que ele possa fazer previsões precisas. O modo de treino na YOLOv8 da Ultralytics é projetado para um treinamento eficaz e eficiente de modelos de detecção de objetos, aproveitando totalmente as capacidades do hardware moderno. Este guia visa cobrir todos os detalhes que você precisa para começar a treinar seus próprios modelos usando o robusto conjunto de recursos da YOLOv8. - -

-
- -
- Assista: Como Treinar um modelo YOLOv8 no Seu Conjunto de Dados Personalizado no Google Colab. -

- -## Por Que Escolher a YOLO da Ultralytics para Treinamento? - -Aqui estão algumas razões convincentes para optar pelo modo de Treino da YOLOv8: - -- **Eficiência:** Aproveite ao máximo seu hardware, seja em um setup com uma única GPU ou expandindo para múltiplas GPUs. -- **Versatilidade:** Treine em conjuntos de dados personalizados, além dos já disponíveis, como COCO, VOC e ImageNet. -- **Facilidade de Uso:** Interfaces de linha de comando (CLI) e em Python simples, porém poderosas, para uma experiência de treinamento direta. -- **Flexibilidade de Hiperparâmetros:** Uma ampla gama de hiperparâmetros personalizáveis para ajustar o desempenho do modelo. - -### Principais Recursos do Modo de Treino - -Os seguintes são alguns recursos notáveis ​​do modo de Treino da YOLOv8: - -- **Download Automático de Datasets:** Datasets padrões como COCO, VOC e ImageNet são baixados automaticamente na primeira utilização. -- **Suporte a Multi-GPU:** Escalone seus esforços de treinamento de maneira uniforme entre várias GPUs para acelerar o processo. -- **Configuração de Hiperparâmetros:** Opção de modificar hiperparâmetros através de arquivos de configuração YAML ou argumentos de CLI. -- **Visualização e Monitoramento:** Acompanhamento em tempo real das métricas de treinamento e visualização do processo de aprendizagem para obter melhores insights. - -!!! Tip "Dica" - - * Conjuntos de dados YOLOv8 como COCO, VOC, ImageNet e muitos outros são baixados automaticamente na primeira utilização, ou seja, `yolo train data=coco.yaml` - -## Exemplos de Uso - -Treine o YOLOv8n no conjunto de dados COCO128 por 100 épocas com tamanho de imagem de 640. O dispositivo de treinamento pode ser especificado usando o argumento `device`. Se nenhum argumento for passado, a GPU `device=0` será usado se disponível, caso contrário, `device=cpu` será usado. Veja a seção Argumentos abaixo para uma lista completa dos argumentos de treinamento. - -!!! Example "Exemplo de Treinamento em Uma Única GPU e CPU" - - O dispositivo é determinado automaticamente. Se uma GPU estiver disponível, ela será usada, caso contrário, o treinamento começará na CPU. - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.yaml') # construir um novo modelo a partir do YAML - model = YOLO('yolov8n.pt') # carregar um modelo pré-treinado (recomendado para treinamento) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # construir a partir do YAML e transferir pesos - - # Treinar o modelo - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash - # Construir um novo modelo a partir do YAML e começar o treinamento do zero - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Começar o treinamento a partir de um modelo *.pt pré-treinado - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Construir um novo modelo a partir do YAML, transferir pesos pré-treinados para ele e começar o treinamento - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Treinamento com Multi-GPU - -O treinamento com múltiplas GPUs permite uma utilização mais eficiente dos recursos de hardware disponíveis, distribuindo a carga de treinamento entre várias GPUs. Esse recurso está disponível por meio da API do Python e da interface de linha de comando. Para habilitar o treinamento com várias GPUs, especifique os IDs dos dispositivos de GPU que deseja usar. - -!!! Example "Exemplo de Treinamento com Multi-GPU" - - Para treinar com 2 GPUs, dispositivos CUDA 0 e 1 use os seguintes comandos. Expanda para GPUs adicionais conforme necessário. - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.pt') # carregar um modelo pré-treinado (recomendado para treinamento) - - # Treinar o modelo com 2 GPUs - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # Começar o treinamento a partir de um modelo *.pt pré-treinado usando as GPUs 0 e 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### Treinamento com Apple M1 e M2 MPS - -Com a integração do suporte para os chips Apple M1 e M2 nos modelos YOLO da Ultralytics, agora é possível treinar seus modelos em dispositivos que utilizam o poderoso framework Metal Performance Shaders (MPS). O MPS oferece uma forma de alto desempenho de executar tarefas de computação e processamento de imagens no silício personalizado da Apple. - -Para habilitar o treinamento nos chips Apple M1 e M2, você deve especificar 'mps' como seu dispositivo ao iniciar o processo de treinamento. Abaixo está um exemplo de como você pode fazer isso em Python e via linha de comando: - -!!! Example "Exemplo de Treinamento com MPS" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.pt') # carregar um modelo pré-treinado (recomendado para treinamento) - - # Treinar o modelo com MPS - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # Começar o treinamento a partir de um modelo *.pt pré-treinado usando MPS - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -Ao aproveitar o poder computacional dos chips M1/M2, isso possibilita o processamento mais eficiente das tarefas de treinamento. Para orientações mais detalhadas e opções avançadas de configuração, consulte a [documentação do PyTorch MPS](https://pytorch.org/docs/stable/notes/mps.html). - -## Registro de Logs - -Ao treinar um modelo YOLOv8, você pode achar valioso acompanhar o desempenho do modelo ao longo do tempo. É aqui que o registro de logs se torna útil. O YOLO da Ultralytics oferece suporte para três tipos de loggers - Comet, ClearML e TensorBoard. - -Para usar um logger, selecione-o no menu suspenso no trecho de código acima e execute-o. O logger escolhido será instalado e inicializado. - -### Comet - -[Comet](https://www.comet.ml/site/) é uma plataforma que permite a cientistas de dados e desenvolvedores rastrear, comparar, explicar e otimizar experimentos e modelos. Oferece funcionalidades como métricas em tempo real, diffs de código e acompanhamento de hiperparâmetros. - -Para usar o Comet: - -!!! Example "Exemplo" - - === "Python" - ```python - # pip install comet_ml - import comet_ml - - comet_ml.init() - ``` - -Lembre-se de fazer login na sua conta Comet no site deles e obter sua chave de API. Você precisará adicionar isso às suas variáveis de ambiente ou ao seu script para registrar seus experimentos. - -### ClearML - -[ClearML](https://www.clear.ml/) é uma plataforma de código aberto que automatiza o rastreamento de experimentos e ajuda com o compartilhamento eficiente de recursos. É projetada para ajudar as equipes a gerenciar, executar e reproduzir seus trabalhos de ML de maneira mais eficiente. - -Para usar o ClearML: - -!!! Example "Exemplo" - - === "Python" - ```python - # pip install clearml - import clearml - - clearml.browser_login() - ``` - -Após executar este script, você precisará fazer login na sua conta ClearML no navegador e autenticar sua sessão. - -### TensorBoard - -[TensorBoard](https://www.tensorflow.org/tensorboard) é um kit de ferramentas de visualização para TensorFlow. Permite visualizar o seu gráfico TensorFlow, plotar métricas quantitativas sobre a execução do seu gráfico e mostrar dados adicionais como imagens que passam por ele. - -Para usar o TensorBoard em [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): - -!!! Example "Exemplo" - - === "CLI" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # substitua pelo diretório 'runs' - ``` - -Para usar o TensorBoard localmente, execute o comando abaixo e veja os resultados em http://localhost:6006/: - -!!! Example "Exemplo" - - === "CLI" - ```bash - tensorboard --logdir ultralytics/runs # substitua pelo diretório 'runs' - ``` - -Isso irá carregar o TensorBoard e direcioná-lo para o diretório onde seus logs de treinamento estão salvos. - -Depois de configurar o seu logger, você pode então prosseguir com o treinamento do seu modelo. Todas as métricas de treinamento serão registradas automaticamente na sua plataforma escolhida, e você pode acessar esses logs para monitorar o desempenho do seu modelo ao longo do tempo, comparar diferentes modelos e identificar áreas para melhoria. diff --git a/docs/pt/modes/val.md b/docs/pt/modes/val.md deleted file mode 100644 index a482f14fc61..00000000000 --- a/docs/pt/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: Guia para Validação de Modelos YOLOv8. Aprenda como avaliar o desempenho dos seus modelos YOLO utilizando configurações e métricas de validação com exemplos em Python e CLI. -keywords: Ultralytics, Documentação YOLO, YOLOv8, validação, avaliação de modelo, hiperparâmetros, precisão, métricas, Python, CLI ---- - -# Validação de Modelos com Ultralytics YOLO - -Ecossistema e integrações do Ultralytics YOLO - -## Introdução - -A validação é um passo crítico no pipeline de aprendizado de máquina, permitindo que você avalie a qualidade dos seus modelos treinados. O modo Val no Ultralytics YOLOv8 fornece um robusto conjunto de ferramentas e métricas para avaliar o desempenho dos seus modelos de detecção de objetos. Este guia serve como um recurso completo para entender como usar efetivamente o modo Val para garantir que seus modelos sejam precisos e confiáveis. - -## Por Que Validar com o Ultralytics YOLO? - -Aqui estão as vantagens de usar o modo Val no YOLOv8: - -- **Precisão:** Obtenha métricas precisas como mAP50, mAP75 e mAP50-95 para avaliar seu modelo de forma abrangente. -- **Conveniência:** Utilize recursos integrados que lembram as configurações de treinamento, simplificando o processo de validação. -- **Flexibilidade:** Valide seu modelo com os mesmos ou diferentes conjuntos de dados e tamanhos de imagem. -- **Ajuste de Hiperparâmetros:** Utilize as métricas de validação para refinar seu modelo e obter um desempenho melhor. - -### Principais Recursos do Modo Val - -Estas são as funcionalidades notáveis oferecidas pelo modo Val do YOLOv8: - -- **Configurações Automatizadas:** Os modelos lembram suas configurações de treinamento para validação direta. -- **Suporte Multi-Métrico:** Avalie seu modelo com base em uma variedade de métricas de precisão. -- **API em Python e CLI:** Escolha entre a interface de linha de comando ou API em Python com base na sua preferência de validação. -- **Compatibilidade de Dados:** Funciona perfeitamente com conjuntos de dados usados durante a fase de treinamento, bem como conjuntos de dados personalizados. - -!!! Tip "Dica" - - * Os modelos YOLOv8 lembram automaticamente suas configurações de treinamento, então você pode validar um modelo no mesmo tamanho de imagem e no conjunto de dados original facilmente com apenas `yolo val model=yolov8n.pt` ou `model('yolov8n.pt').val()` - -## Exemplos de Uso - -Validar a precisão do modelo YOLOv8n treinado no conjunto de dados COCO128. Nenhum argumento precisa ser passado, pois o `model` retém os dados de treinamento e argumentos como atributos do modelo. Veja a seção de Argumentos abaixo para uma lista completa dos argumentos de exportação. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.pt') # carregar um modelo oficial - model = YOLO('path/to/best.pt') # carregar um modelo personalizado - - # Validar o modelo - metrics = model.val() # nenhum argumento necessário, conjunto de dados e configurações lembrados - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # uma lista contém map50-95 de cada categoria - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # validar modelo oficial - yolo detect val model=path/to/best.pt # validar modelo personalizado - ``` - -## Argumentos - -As configurações de validação para os modelos YOLO referem-se aos vários hiperparâmetros e configurações usados para avaliar o desempenho do modelo em um conjunto de dados de validação. Essas configurações podem afetar o desempenho, velocidade e precisão do modelo. Algumas configurações comuns de validação do YOLO incluem o tamanho do lote, a frequência com que a validação é realizada durante o treinamento e as métricas usadas para avaliar o desempenho do modelo. Outros fatores que podem afetar o processo de validação incluem o tamanho e a composição do conjunto de dados de validação e a tarefa específica para a qual o modelo está sendo usado. É importante ajustar e experimentar cuidadosamente essas configurações para garantir que o modelo apresente um bom desempenho no conjunto de dados de validação e para detectar e prevenir o sobreajuste. - -| Chave | Valor | Descrição | -|---------------|---------|-----------------------------------------------------------------------------------| -| `data` | `None` | caminho para o arquivo de dados, ex. coco128.yaml | -| `imgsz` | `640` | tamanho das imagens de entrada como inteiro | -| `batch` | `16` | número de imagens por lote (-1 para AutoBatch) | -| `save_json` | `False` | salvar resultados em arquivo JSON | -| `save_hybrid` | `False` | salvar versão híbrida das etiquetas (etiquetas + previsões adicionais) | -| `conf` | `0.001` | limite de confiança do objeto para detecção | -| `iou` | `0.6` | limiar de interseção sobre união (IoU) para NMS | -| `max_det` | `300` | número máximo de detecções por imagem | -| `half` | `True` | usar precisão meia (FP16) | -| `device` | `None` | dispositivo para execução, ex. dispositivo cuda=0/1/2/3 ou device=cpu | -| `dnn` | `False` | usar OpenCV DNN para inferência ONNX | -| `plots` | `False` | mostrar gráficos durante o treinamento | -| `rect` | `False` | val retangular com cada lote colado para minimizar o preenchimento | -| `split` | `val` | divisão do conjunto de dados para usar na validação, ex. 'val', 'test' ou 'train' | -| diff --git a/docs/pt/quickstart.md b/docs/pt/quickstart.md deleted file mode 100644 index 62e04d79716..00000000000 --- a/docs/pt/quickstart.md +++ /dev/null @@ -1,198 +0,0 @@ ---- -comments: true -description: Explore os diversos métodos para instalar o Ultralytics usando pip, conda, git e Docker. Aprenda a usar o Ultralytics com a interface de linha de comando ou dentro dos seus projetos Python. -keywords: Instalação do Ultralytics, pip install Ultralytics, Docker install Ultralytics, interface de linha de comando do Ultralytics, interface Python do Ultralytics ---- - -## Instalação do Ultralytics - -O Ultralytics oferece diversos métodos de instalação, incluindo pip, conda e Docker. Instale o YOLOv8 através do pacote `ultralytics` pip para a versão estável mais recente ou clonando o [repositório GitHub do Ultralytics](https://github.com/ultralytics/ultralytics) para obter a versão mais atualizada. O Docker pode ser usado para executar o pacote em um contêiner isolado, evitando a instalação local. - -!!! Example "Instalar" - - === "Pip install (recomendado)" - Instale o pacote `ultralytics` usando pip, ou atualize uma instalação existente executando `pip install -U ultralytics`. Visite o Índice de Pacotes Python (PyPI) para mais detalhes sobre o pacote `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). - - [![PyPI version](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Downloads](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # Instalar o pacote ultralytics do PyPI - pip install ultralytics - ``` - - Você também pode instalar o pacote `ultralytics` diretamente do [repositório](https://github.com/ultralytics/ultralytics) GitHub. Isso pode ser útil se você desejar a versão de desenvolvimento mais recente. Certifique-se de ter a ferramenta de linha de comando Git instalada no seu sistema. O comando `@main` instala a branch `main` e pode ser modificado para outra branch, ou seja, `@my-branch`, ou removido completamente para padrão na branch `main`. - - ```bash - # Instalar o pacote ultralytics do GitHub - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "Conda install" - Conda é um gerenciador de pacotes alternativo ao pip que também pode ser usado para instalação. Visite Anaconda para mais detalhes em [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics). O repositório de feedstock do Ultralytics para atualizar o pacote conda está em [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/). - - - [![Conda Recipe](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Downloads](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Version](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Platforms](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # Instalar o pacote ultralytics usando conda - conda install -c conda-forge ultralytics - ``` - - !!! Note "Nota" - - Se você está instalando em um ambiente CUDA a prática recomendada é instalar `ultralytics`, `pytorch` e `pytorch-cuda` no mesmo comando para permitir que o gerenciador de pacotes conda resolva quaisquer conflitos, ou instalar `pytorch-cuda` por último para permitir que ele substitua o pacote específico para CPU `pytorch`, se necessário. - ```bash - # Instalar todos os pacotes juntos usando conda - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Imagem Docker Conda - - As imagens Docker Conda do Ultralytics também estão disponíveis em [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics). Estas imagens são baseadas em [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) e são um modo simples de começar a usar `ultralytics` em um ambiente Conda. - - ```bash - # Definir o nome da imagem como uma variável - t=ultralytics/ultralytics:latest-conda - - # Puxar a imagem mais recente do ultralytics do Docker Hub - sudo docker pull $t - - # Executar a imagem ultralytics em um contêiner com suporte a GPU - sudo docker run -it --ipc=host --gpus all $t # todas as GPUs - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # especificar GPUs - ``` - - === "Git clone" - Clone o repositório `ultralytics` se você está interessado em contribuir para o desenvolvimento ou deseja experimentar com o código-fonte mais recente. Após clonar, navegue até o diretório e instale o pacote em modo editável `-e` usando pip. - ```bash - # Clonar o repositório ultralytics - git clone https://github.com/ultralytics/ultralytics - - # Navegar para o diretório clonado - cd ultralytics - - # Instalar o pacote em modo editável para desenvolvimento - pip install -e . - ``` - -Veja o arquivo [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml) do `ultralytics` para uma lista de dependências. Note que todos os exemplos acima instalam todas as dependências necessárias. - -

-
- -
- Watch: Ultralytics YOLO Quick Start Guide -

- -!!! Tip "Dica" - - Os requisitos do PyTorch variam pelo sistema operacional e pelos requisitos de CUDA, então é recomendado instalar o PyTorch primeiro seguindo as instruções em [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). - - - Instruções de Instalação do PyTorch - - -## Use o Ultralytics com CLI - -A interface de linha de comando (CLI) do Ultralytics permite comandos simples de uma única linha sem a necessidade de um ambiente Python. O CLI não requer personalização ou código Python. Você pode simplesmente rodar todas as tarefas do terminal com o comando `yolo`. Confira o [Guia CLI](/../usage/cli.md) para aprender mais sobre o uso do YOLOv8 pela linha de comando. - -!!! Example "Exemplo" - - === "Sintaxe" - - Os comandos `yolo` do Ultralytics usam a seguinte sintaxe: - ```bash - yolo TAREFA MODO ARGUMENTOS - - Onde TAREFA (opcional) é um entre [detect, segment, classify] - MODO (obrigatório) é um entre [train, val, predict, export, track] - ARGUMENTOS (opcional) são qualquer número de pares personalizados 'arg=valor' como 'imgsz=320' que substituem os padrões. - ``` - Veja todos os ARGUMENTOS no guia completo de [Configuração](/../usage/cfg.md) ou com `yolo cfg` - - === "Train" - - Treinar um modelo de detecção por 10 épocas com uma taxa de aprendizado inicial de 0.01 - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "Predict" - - Prever um vídeo do YouTube usando um modelo de segmentação pré-treinado com tamanho de imagem 320: - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "Val" - - Validar um modelo de detecção pré-treinado com tamanho de lote 1 e tamanho de imagem 640: - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "Export" - - Exportar um modelo de classificação YOLOv8n para formato ONNX com tamanho de imagem 224 por 128 (nenhuma TAREFA necessária) - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "Special" - - Executar comandos especiais para ver versão, visualizar configurações, rodar verificações e mais: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "Aviso" - - Argumentos devem ser passados como pares `arg=valor`, separados por um sinal de igual `=` e delimitados por espaços ` ` entre pares. Não use prefixos de argumentos `--` ou vírgulas `,` entre os argumentos. - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`   ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25`   ❌ - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25`   ❌ - -[Guia CLI](/../usage/cli.md){ .md-button } - -## Use o Ultralytics com Python - -A interface Python do YOLOv8 permite uma integração tranquila em seus projetos Python, tornando fácil carregar, executar e processar a saída do modelo. Projetada com simplicidade e facilidade de uso em mente, a interface Python permite que os usuários implementem rapidamente detecção de objetos, segmentação e classificação em seus projetos. Isto torna a interface Python do YOLOv8 uma ferramenta inestimável para qualquer pessoa buscando incorporar essas funcionalidades em seus projetos Python. - -Por exemplo, os usuários podem carregar um modelo, treiná-lo, avaliar o seu desempenho em um conjunto de validação e até exportá-lo para o formato ONNX com apenas algumas linhas de código. Confira o [Guia Python](/../usage/python.md) para aprender mais sobre o uso do YOLOv8 dentro dos seus projetos Python. - -!!! Example "Exemplo" - - ```python - from ultralytics import YOLO - - # Criar um novo modelo YOLO do zero - model = YOLO('yolov8n.yaml') - - # Carregar um modelo YOLO pré-treinado (recomendado para treinamento) - model = YOLO('yolov8n.pt') - - # Treinar o modelo usando o conjunto de dados 'coco128.yaml' por 3 épocas - results = model.train(data='coco128.yaml', epochs=3) - - # Avaliar o desempenho do modelo no conjunto de validação - results = model.val() - - # Realizar detecção de objetos em uma imagem usando o modelo - results = model('https://ultralytics.com/images/bus.jpg') - - # Exportar o modelo para formato ONNX - success = model.export(format='onnx') - ``` - -[Guia Python](/../usage/python.md){.md-button .md-button--primary} diff --git a/docs/pt/tasks/classify.md b/docs/pt/tasks/classify.md deleted file mode 100644 index 9a399c80857..00000000000 --- a/docs/pt/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: Aprenda sobre modelos YOLOv8 Classify para classificação de imagens. Obtenha informações detalhadas sobre Lista de Modelos Pré-treinados e como Treinar, Validar, Prever e Exportar modelos. -keywords: Ultralytics, YOLOv8, Classificação de Imagem, Modelos Pré-treinados, YOLOv8n-cls, Treinamento, Validação, Previsão, Exportação de Modelo ---- - -# Classificação de Imagens - -Exemplos de classificação de imagens - -A classificação de imagens é a tarefa mais simples das três e envolve classificar uma imagem inteira em uma de um conjunto de classes pré-definidas. - -A saída de um classificador de imagem é um único rótulo de classe e uma pontuação de confiança. A classificação de imagem é útil quando você precisa saber apenas a qual classe uma imagem pertence e não precisa conhecer a localização dos objetos dessa classe ou o formato exato deles. - -!!! Tip "Dica" - - Os modelos YOLOv8 Classify usam o sufixo `-cls`, ou seja, `yolov8n-cls.pt` e são pré-treinados na [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -## [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Aqui são mostrados os modelos pré-treinados YOLOv8 Classify. Modelos de Detecção, Segmentação e Pose são pré-treinados no dataset [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), enquanto que os modelos de Classificação são pré-treinados no dataset [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -[Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) são baixados automaticamente do último lançamento da Ultralytics [release](https://github.com/ultralytics/assets/releases) no primeiro uso. - -| Modelo | Tamanho
(pixels) | acurácia
top1 | acurácia
top5 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | parâmetros
(M) | FLOPs
(B) a 640 | -|----------------------------------------------------------------------------------------------|--------------------------|-----------------------|-----------------------|-------------------------------------|------------------------------------------|------------------------|-------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- Os valores de **acc** são as acurácias dos modelos no conjunto de validação do dataset [ImageNet](https://www.image-net.org/). -
Reproduza com `yolo val classify data=path/to/ImageNet device=0` -- **Velocidade** média observada sobre imagens de validação da ImageNet usando uma instância [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Reproduza com `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` - -## Treino - -Treine o modelo YOLOv8n-cls no dataset MNIST160 por 100 épocas com tamanho de imagem 64. Para uma lista completa de argumentos disponíveis, veja a página de [Configuração](/../usage/cfg.md). - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-cls.yaml') # construir um novo modelo a partir do YAML - model = YOLO('yolov8n-cls.pt') # carregar um modelo pré-treinado (recomendado para treino) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # construir a partir do YAML e transferir pesos - - # Treinar o modelo - results = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # Construir um novo modelo a partir do YAML e começar treino do zero - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # Começar treino de um modelo pré-treinado *.pt - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # Construir um novo modelo do YAML, transferir pesos pré-treinados e começar treino - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### Formato do dataset - -O formato do dataset de classificação YOLO pode ser encontrado em detalhes no [Guia de Datasets](../../../datasets/classify/index.md). - -## Val - -Valide a acurácia do modelo YOLOv8n-cls treinado no dataset MNIST160. Não é necessário passar argumento, pois o `modelo` retém seus dados de treinamento e argumentos como atributos do modelo. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-cls.pt') # carregar um modelo oficial - model = YOLO('path/to/best.pt') # carregar um modelo personalizado - - # Validar o modelo - metrics = model.val() # sem argumentos necessários, dataset e configurações lembrados - metrics.top1 # acurácia top1 - metrics.top5 # acurácia top5 - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # validar modelo oficial - yolo classify val model=path/to/best.pt # validar modelo personalizado - ``` - -## Previsão - -Use um modelo YOLOv8n-cls treinado para realizar previsões em imagens. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-cls.pt') # carregar um modelo oficial - model = YOLO('path/to/best.pt') # carregar um modelo personalizado - - # Prever com o modelo - results = model('https://ultralytics.com/images/bus.jpg') # prever em uma imagem - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # prever com modelo oficial - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # prever com modelo personalizado - ``` - -Veja detalhes completos do modo de `previsão` na página [Predict](https://docs.ultralytics.com/modes/predict/). - -## Exportar - -Exporte um modelo YOLOv8n-cls para um formato diferente, como ONNX, CoreML, etc. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-cls.pt') # carregar um modelo oficial - model = YOLO('path/to/best.pt') # carregar um modelo treinado personalizado - - # Exportar o modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # exportar modelo oficial - yolo export model=path/to/best.pt format=onnx # exportar modelo treinado personalizado - ``` - -Os formatos de exportação YOLOv8-cls disponíveis estão na tabela abaixo. Você pode prever ou validar diretamente nos modelos exportados, ou seja, `yolo predict model=yolov8n-cls.onnx`. Exemplos de uso são mostrados para seu modelo após a conclusão da exportação. - -| Formato | Argumento `format` | Modelo | Metadata | Argumentos | -|--------------------------------------------------------------------|--------------------|-------------------------------|----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -Veja detalhes completos da `exportação` na página [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/pt/tasks/detect.md b/docs/pt/tasks/detect.md deleted file mode 100644 index c6b655cc182..00000000000 --- a/docs/pt/tasks/detect.md +++ /dev/null @@ -1,185 +0,0 @@ ---- -comments: true -description: Documentação oficial do YOLOv8 por Ultralytics. Aprenda como treinar, validar, predizer e exportar modelos em vários formatos. Incluindo estatísticas detalhadas de desempenho. -keywords: YOLOv8, Ultralytics, detecção de objetos, modelos pré-treinados, treinamento, validação, predição, exportação de modelos, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# Detecção de Objetos - -Exemplos de detecção de objetos - -Detecção de objetos é uma tarefa que envolve identificar a localização e a classe de objetos em uma imagem ou fluxo de vídeo. - -A saída de um detector de objetos é um conjunto de caixas delimitadoras que cercam os objetos na imagem, junto com rótulos de classe e pontuações de confiança para cada caixa. A detecção de objetos é uma boa escolha quando você precisa identificar objetos de interesse em uma cena, mas não precisa saber exatamente onde o objeto está ou seu formato exato. - -

-
- -
- Assista: Detecção de Objetos com Modelo Pre-treinado Ultralytics YOLOv8. -

- -!!! Tip "Dica" - - Os modelos YOLOv8 Detect são os modelos padrão do YOLOv8, ou seja, `yolov8n.pt` e são pré-treinados no [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Os modelos pré-treinados YOLOv8 Detect são mostrados aqui. Os modelos Detect, Segment e Pose são pré-treinados no dataset [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), enquanto os modelos Classify são pré-treinados no dataset [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -Os [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) são baixados automaticamente a partir do último lançamento da Ultralytics [release](https://github.com/ultralytics/assets/releases) no primeiro uso. - -| Modelo | Tamanho
(pixels) | mAPval
50-95 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | Parâmetros
(M) | FLOPs
(B) | -|--------------------------------------------------------------------------------------|--------------------------|----------------------|-------------------------------------|------------------------------------------|------------------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- Os valores de **mAPval** são para um único modelo e uma única escala no dataset [COCO val2017](https://cocodataset.org). -
Reproduza usando `yolo val detect data=coco.yaml device=0` -- A **Velocidade** é média tirada sobre as imagens do COCO val num [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) - instância. -
Reproduza usando `yolo val detect data=coco128.yaml batch=1 device=0|cpu` - -## Treinar - -Treine o YOLOv8n no dataset COCO128 por 100 épocas com tamanho de imagem 640. Para uma lista completa de argumentos disponíveis, veja a página [Configuração](/../usage/cfg.md). - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.yaml') # construir um novo modelo pelo YAML - model = YOLO('yolov8n.pt') # carregar um modelo pré-treinado (recomendado para treinamento) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # construir pelo YAML e transferir pesos - - # Treinar o modelo - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construir um novo modelo pelo YAML e começar o treinamento do zero - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Começar o treinamento a partir de um modelo pré-treinado *.pt - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Construir um novo modelo pelo YAML, transferir pesos pré-treinados e começar o treinamento - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Formato do Dataset - -O formato do dataset de detecção do YOLO pode ser encontrado em detalhes no [Guia de Datasets](../../../datasets/detect/index.md). Para converter seu dataset existente de outros formatos (como COCO, etc.) para o formato YOLO, por favor utilize a ferramenta [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) da Ultralytics. - -## Validar - -Valide a precisão do modelo YOLOv8n treinado no dataset COCO128. Não é necessário passar nenhum argumento, pois o `modelo` mantém seus `dados` de treino e argumentos como atributos do modelo. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.pt') # carregar um modelo oficial - model = YOLO('caminho/para/best.pt') # carregar um modelo personalizado - - # Validar o modelo - metrics = model.val() # sem a necessidade de argumentos, dataset e configurações lembradas - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # uma lista contém map50-95 de cada categoria - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # validação do modelo oficial - yolo detect val model=caminho/para/best.pt # validação do modelo personalizado - ``` - -## Predizer - -Use um modelo YOLOv8n treinado para fazer predições em imagens. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.pt') # carregar um modelo oficial - model = YOLO('caminho/para/best.pt') # carregar um modelo personalizado - - # Predizer com o modelo - results = model('https://ultralytics.com/images/bus.jpg') # predizer em uma imagem - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # predizer com modelo oficial - yolo detect predict model=caminho/para/best.pt source='https://ultralytics.com/images/bus.jpg' # predizer com modelo personalizado - ``` - -Veja os detalhes completos do modo `predict` na página [Predição](https://docs.ultralytics.com/modes/predict/). - -## Exportar - -Exporte um modelo YOLOv8n para um formato diferente, como ONNX, CoreML, etc. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n.pt') # carregar um modelo oficial - model = YOLO('caminho/para/best.pt') # carregar um modelo treinado personalizado - - # Exportar o modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # exportar modelo oficial - yolo export model=caminho/para/best.pt format=onnx # exportar modelo treinado personalizado - ``` - -Os formatos de exportação YOLOv8 disponíveis estão na tabela abaixo. Você pode fazer predições ou validar diretamente em modelos exportados, ou seja, `yolo predict model=yolov8n.onnx`. Exemplos de uso são mostrados para o seu modelo após a exportação ser concluída. - -| Formato | Argumento `format` | Modelo | Metadados | Argumentos | -|--------------------------------------------------------------------|--------------------|---------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Veja os detalhes completos de `exportar` na página [Exportação](https://docs.ultralytics.com/modes/export/). diff --git a/docs/pt/tasks/index.md b/docs/pt/tasks/index.md deleted file mode 100644 index 209cac7f4ef..00000000000 --- a/docs/pt/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: Aprenda sobre as principais tarefas de visão computacional que o YOLOv8 pode realizar, incluindo detecção, segmentação, classificação e estimativa de pose. Entenda seus usos em seus projetos de IA. -keywords: Ultralytics, YOLOv8, Detecção, Segmentação, Classificação, Estimativa de Pose, Framework de IA, Tarefas de Visão Computacional ---- - -# Tarefas do Ultralytics YOLOv8 - -
-Tarefas suportadas pelo Ultralytics YOLO - -YOLOv8 é um framework de IA que suporta múltiplas tarefas de **visão computacional**. O framework pode ser usado para realizar [detecção](detect.md), [segmentação](segment.md), [classificação](classify.md) e estimativa de [pose](pose.md). Cada uma dessas tarefas tem um objetivo e caso de uso diferente. - -!!! Note "Nota" - - 🚧 Nossa documentação multilíngue está atualmente em construção e estamos trabalhando para aprimorá-la. Agradecemos sua paciência! 🙏 - -

-
- -
- Assista: Explore as Tarefas do Ultralytics YOLO: Detecção de Objetos, Segmentação, Rastreamento e Estimativa de Pose. -

- -## [Detecção](detect.md) - -A detecção é a principal tarefa suportada pelo YOLOv8. Envolve detectar objetos em uma imagem ou quadro de vídeo e desenhar caixas delimitadoras ao redor deles. Os objetos detectados são classificados em diferentes categorias com base em suas características. YOLOv8 pode detectar múltiplos objetos em uma única imagem ou quadro de vídeo com alta precisão e velocidade. - -[Exemplos de Detecção](detect.md){ .md-button } - -## [Segmentação](segment.md) - -Segmentação é uma tarefa que envolve segmentar uma imagem em diferentes regiões com base no conteúdo da imagem. Cada região recebe um rótulo com base em seu conteúdo. Essa tarefa é útil em aplicações como segmentação de imagens e imagiologia médica. YOLOv8 usa uma variante da arquitetura U-Net para realizar a segmentação. - -[Exemplos de Segmentação](segment.md){ .md-button } - -## [Classificação](classify.md) - -Classificação é uma tarefa que envolve classificar uma imagem em diferentes categorias. YOLOv8 pode ser usado para classificar imagens com base em seu conteúdo. Utiliza uma variante da arquitetura EfficientNet para realizar a classificação. - -[Exemplos de Classificação](classify.md){ .md-button } - -## [Pose](pose.md) - -A detecção de pose/pontos-chave é uma tarefa que envolve detectar pontos específicos em uma imagem ou quadro de vídeo. Esses pontos são chamados de keypoints e são usados para rastrear movimento ou estimar poses. YOLOv8 pode detectar keypoints em uma imagem ou quadro de vídeo com alta precisão e velocidade. - -[Exemplos de Pose](pose.md){ .md-button } - -## Conclusão - -YOLOv8 suporta múltiplas tarefas, incluindo detecção, segmentação, classificação e detecção de keypoints. Cada uma dessas tarefas tem objetivos e casos de uso diferentes. Ao entender as diferenças entre essas tarefas, você pode escolher a tarefa apropriada para sua aplicação de visão computacional. diff --git a/docs/pt/tasks/pose.md b/docs/pt/tasks/pose.md deleted file mode 100644 index f556cbed126..00000000000 --- a/docs/pt/tasks/pose.md +++ /dev/null @@ -1,188 +0,0 @@ ---- -comments: true -description: Aprenda a usar o Ultralytics YOLOv8 para tarefas de estimativa de pose. Encontre modelos pré-treinados, aprenda a treinar, validar, prever e exportar seu próprio modelo. -keywords: Ultralytics, YOLO, YOLOv8, estimativa de pose, detecção de pontos-chave, detecção de objetos, modelos pré-treinados, aprendizado de máquina, inteligência artificial ---- - -# Estimativa de Pose - -Exemplos de estimativa de pose - -A estimativa de pose é uma tarefa que envolve identificar a localização de pontos específicos em uma imagem, geralmente referidos como pontos-chave. Os pontos-chave podem representar várias partes do objeto como articulações, pontos de referência ou outras características distintas. As localizações dos pontos-chave são geralmente representadas como um conjunto de coordenadas 2D `[x, y]` ou 3D `[x, y, visível]`. - -A saída de um modelo de estimativa de pose é um conjunto de pontos que representam os pontos-chave em um objeto na imagem, geralmente junto com os escores de confiança para cada ponto. A estimativa de pose é uma boa escolha quando você precisa identificar partes específicas de um objeto em uma cena, e sua localização relativa entre si. - -

-
- -
- Assista: Estimativa de Pose com Ultralytics YOLOv8. -

- -!!! Tip "Dica" - - Modelos YOLOv8 _pose_ usam o sufixo `-pose`, isto é `yolov8n-pose.pt`. Esses modelos são treinados no conjunto de dados [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) e são adequados para uma variedade de tarefas de estimativa de pose. - -## [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Os modelos YOLOv8 Pose pré-treinados são mostrados aqui. Os modelos Detect, Segment e Pose são pré-treinados no conjunto de dados [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), enquanto os modelos Classify são pré-treinados no conjunto de dados [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -[Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) são baixados automaticamente do último lançamento da Ultralytics [release](https://github.com/ultralytics/assets/releases) no primeiro uso. - -| Modelo | tamanho
(pixels) | mAPpose
50-95 | mAPpose
50 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | parâmetros
(M) | FLOPs
(B) | -|------------------------------------------------------------------------------------------------------|--------------------------|-----------------------|--------------------|-------------------------------------|------------------------------------------|------------------------|-------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- **mAPval** valores são para um único modelo em escala única no conjunto de dados [COCO Keypoints val2017](https://cocodataset.org) - . -
Reproduza `yolo val pose data=coco-pose.yaml device=0` -- **Velocidade** média em imagens COCO val usando uma instância [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) - . -
Reproduza `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` - -## Treinar - -Treine um modelo YOLOv8-pose no conjunto de dados COCO128-pose. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-pose.yaml') # construir um novo modelo a partir do YAML - model = YOLO('yolov8n-pose.pt') # carregar um modelo pré-treinado (recomendado para treinamento) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # construir a partir do YAML e transferir pesos - - # Treinar o modelo - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construir um novo modelo a partir do YAML e começar o treinamento do zero - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # Começar treinamento de um modelo *.pt pré-treinado - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # Construir um novo modelo a partir do YAML, transferir pesos pré-treinados para ele e começar o treinamento - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### Formato do conjunto de dados - -O formato do conjunto de dados de pose YOLO pode ser encontrado em detalhes no [Guia de Conjuntos de Dados](../../../datasets/pose/index.md). Para converter seu conjunto de dados existente de outros formatos (como COCO etc.) para o formato YOLO, por favor, use a ferramenta [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) da Ultralytics. - -## Validar - -Valide a acurácia do modelo YOLOv8n-pose treinado no conjunto de dados COCO128-pose. Não é necessário passar nenhum argumento, pois o `model` -retém seus `data` de treinamento e argumentos como atributos do modelo. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-pose.pt') # carregar um modelo oficial - model = YOLO('caminho/para/melhor.pt') # carregar um modelo personalizado - - # Validar o modelo - metrics = model.val() # nenhum argumento necessário, conjunto de dados e configurações lembradas - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # uma lista contém map50-95 de cada categoria - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # validar modelo oficial - yolo pose val model=caminho/para/melhor.pt # validar modelo personalizado - ``` - -## Prever - -Use um modelo YOLOv8n-pose treinado para executar previsões em imagens. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-pose.pt') # carregar um modelo oficial - model = YOLO('caminho/para/melhor.pt') # carregar um modelo personalizado - - # Prever com o modelo - results = model('https://ultralytics.com/images/bus.jpg') # prever em uma imagem - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # prever com modelo oficial - yolo pose predict model=caminho/para/melhor.pt source='https://ultralytics.com/images/bus.jpg' # prever com modelo personalizado - ``` - -Veja detalhes completos do modo `predict` na página [Prever](https://docs.ultralytics.com/modes/predict/). - -## Exportar - -Exporte um modelo YOLOv8n Pose para um formato diferente como ONNX, CoreML, etc. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-pose.pt') # carregar um modelo oficial - model = YOLO('caminho/para/melhor.pt') # carregar um modelo treinado personalizado - - # Exportar o modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # exportar modelo oficial - yolo export model=caminho/para/melhor.pt format=onnx # exportar modelo treinado personalizado - ``` - -Os formatos de exportação YOLOv8-pose disponíveis estão na tabela abaixo. Você pode prever ou validar diretamente em modelos exportados, ou seja, `yolo predict model=yolov8n-pose.onnx`. Exemplos de uso são mostrados para o seu modelo após a conclusão da exportação. - -| Formato | Argumento `format` | Modelo | Metadados | Argumentos | -|--------------------------------------------------------------------|--------------------|--------------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -Veja detalhes completos da `exportação` na página [Exportar](https://docs.ultralytics.com/modes/export/). diff --git a/docs/pt/tasks/segment.md b/docs/pt/tasks/segment.md deleted file mode 100644 index df0d7ee2d15..00000000000 --- a/docs/pt/tasks/segment.md +++ /dev/null @@ -1,188 +0,0 @@ ---- -comments: true -description: Aprenda a usar modelos de segmentação de instâncias com o Ultralytics YOLO. Instruções sobre treinamento, validação, previsão de imagem e exportação de modelo. -keywords: yolov8, segmentação de instâncias, Ultralytics, conjunto de dados COCO, segmentação de imagem, detecção de objeto, treinamento de modelo, validação de modelo, previsão de imagem, exportação de modelo ---- - -# Segmentação de Instâncias - -Exemplos de segmentação de instâncias - -A segmentação de instâncias vai além da detecção de objetos e envolve a identificação de objetos individuais em uma imagem e a sua segmentação do resto da imagem. - -A saída de um modelo de segmentação de instâncias é um conjunto de máscaras ou contornos que delineiam cada objeto na imagem, juntamente com rótulos de classe e pontuações de confiança para cada objeto. A segmentação de instâncias é útil quando você precisa saber não apenas onde os objetos estão em uma imagem, mas também qual é a forma exata deles. - -

-
- -
- Assista: Executar Segmentação com o Modelo Treinado Ultralytics YOLOv8 em Python. -

- -!!! Tip "Dica" - - Modelos YOLOv8 Segment usam o sufixo `-seg`, ou seja, `yolov8n-seg.pt` e são pré-treinados no [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Os modelos Segment pré-treinados do YOLOv8 estão mostrados aqui. Os modelos Detect, Segment e Pose são pré-treinados no conjunto de dados [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), enquanto os modelos Classify são pré-treinados no conjunto de dados [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -[Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) são baixados automaticamente do último lançamento da Ultralytics [release](https://github.com/ultralytics/assets/releases) na primeira utilização. - -| Modelo | Tamanho
(pixels) | mAPbox
50-95 | mAPmáscara
50-95 | Velocidade
CPU ONNX
(ms) | Velocidade
A100 TensorRT
(ms) | Parâmetros
(M) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|--------------------------|----------------------|--------------------------|-------------------------------------|------------------------------------------|------------------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- Os valores de **mAPval** são para um único modelo em uma única escala no conjunto de dados [COCO val2017](https://cocodataset.org). -
Reproduza por meio de `yolo val segment data=coco.yaml device=0` -- **Velocidade** média em imagens COCO val usando uma instância [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Reproduza por meio de `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` - -## Treinar - -Treine o modelo YOLOv8n-seg no conjunto de dados COCO128-seg por 100 épocas com tamanho de imagem 640. Para uma lista completa de argumentos disponíveis, consulte a página [Configuração](/../usage/cfg.md). - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-seg.yaml') # construir um novo modelo a partir do YAML - model = YOLO('yolov8n-seg.pt') # carregar um modelo pré-treinado (recomendado para treinamento) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # construir a partir do YAML e transferir os pesos - - # Treinar o modelo - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Construir um novo modelo a partir do YAML e começar o treinamento do zero - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # Começar o treinamento a partir de um modelo *.pt pré-treinado - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # Construir um novo modelo a partir do YAML, transferir pesos pré-treinados para ele e começar o treinamento - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### Formato do conjunto de dados - -O formato do conjunto de dados de segmentação YOLO pode ser encontrado em detalhes no [Guia de Conjuntos de Dados](../../../datasets/segment/index.md). Para converter seu conjunto de dados existente de outros formatos (como COCO etc.) para o formato YOLO, utilize a ferramenta [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) da Ultralytics. - -## Val - -Valide a acurácia do modelo YOLOv8n-seg treinado no conjunto de dados COCO128-seg. Não é necessário passar nenhum argumento, pois o `modelo` retém seus `dados` de treino e argumentos como atributos do modelo. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-seg.pt') # carregar um modelo oficial - model = YOLO('path/to/best.pt') # carregar um modelo personalizado - - # Validar o modelo - metrics = model.val() # sem necessidade de argumentos, conjunto de dados e configurações são lembrados - metrics.box.map # map50-95(B) - metrics.box.map50 # map50(B) - metrics.box.map75 # map75(B) - metrics.box.maps # uma lista contendo map50-95(B) de cada categoria - metrics.seg.map # map50-95(M) - metrics.seg.map50 # map50(M) - metrics.seg.map75 # map75(M) - metrics.seg.maps # uma lista contendo map50-95(M) de cada categoria - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # val modelo oficial - yolo segment val model=path/to/best.pt # val modelo personalizado - ``` - -## Prever - -Use um modelo YOLOv8n-seg treinado para realizar previsões em imagens. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-seg.pt') # carregar um modelo oficial - model = YOLO('path/to/best.pt') # carregar um modelo personalizado - - # Realizar previsão com o modelo - results = model('https://ultralytics.com/images/bus.jpg') # prever em uma imagem - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # previsão com modelo oficial - yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # previsão com modelo personalizado - ``` - -Veja detalhes completos do modo `predict` na página [Prever](https://docs.ultralytics.com/modes/predict/). - -## Exportar - -Exporte um modelo YOLOv8n-seg para um formato diferente como ONNX, CoreML, etc. - -!!! Example "Exemplo" - - === "Python" - - ```python - from ultralytics import YOLO - - # Carregar um modelo - model = YOLO('yolov8n-seg.pt') # carregar um modelo oficial - model = YOLO('path/to/best.pt') # carregar um modelo treinado personalizado - - # Exportar o modelo - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # exportar modelo oficial - yolo export model=path/to/best.pt format=onnx # exportar modelo treinado personalizado - ``` - -Os formatos de exportação disponíveis para YOLOv8-seg estão na tabela abaixo. Você pode prever ou validar diretamente em modelos exportados, ou seja, `yolo predict model=yolov8n-seg.onnx`. Exemplos de uso são mostrados para o seu modelo após a conclusão da exportação. - -| Formato | Argumento `format` | Modelo | Metadados | Argumentos | -|--------------------------------------------------------------------|--------------------|-------------------------------|-----------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | - -Veja detalhes completos da `exportação` na página [Exportar](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ru/datasets/index.md b/docs/ru/datasets/index.md deleted file mode 100644 index 0fdea4551fd..00000000000 --- a/docs/ru/datasets/index.md +++ /dev/null @@ -1,127 +0,0 @@ ---- -comments: true -description: Изучение различных наборов данных компьютерного зрения, поддерживаемых Ultralytics, для задач объектного обнаружения, сегментации, оценки поз, классификации изображений и многократного отслеживания объектов. -keywords: компьютерное зрение, наборы данных, Ultralytics, YOLO, обнаружение объектов, индивидуальная сегментация, оценка позы, классификация изображений, многократное отслеживание объектов ---- - -# Обзор наборов данных - -Ultralytics предоставляет поддержку различных наборов данных для выполнения задач компьютерного зрения, таких как обнаружение объектов, индивидуальная сегментация, оценка поз, классификация и многократное отслеживание объектов. Ниже приведен список основных наборов данных Ultralytics, а затем представлены описание каждой задачи компьютерного зрения и соответствующие наборы данных. - -!!! Note "Заметка" - - 🚧 Наша многоязычная документация в настоящее время находится в стадии разработки, и мы усердно работаем над ее улучшением. Спасибо за терпение! 🙏 - -## [Наборы данных для обнаружения](../../datasets/detect/index.md) - -Обнаружение объектов с помощью ограничивающих рамок - это метод компьютерного зрения, который включает обнаружение и локализацию объектов на изображении путем рисования вокруг каждого объекта прямоугольной рамки. - -- [Argoverse](../../datasets/detect/argoverse.md): Набор данных, содержащий данные о 3D отслеживании и прогнозировании движения из городских условий с подробными аннотациями. -- [COCO](../../datasets/detect/coco.md): Масштабный набор данных, предназначенный для обнаружения объектов, сегментации и аннотирования с более чем 200 тыс. помеченных изображений. -- [COCO8](../../datasets/detect/coco8.md): Содержит первые 4 изображения из наборов COCO train и COCO val, подходит для быстрых тестов. -- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): Набор данных из изображений колосьев пшеницы, собранных со всего мира для задач обнаружения и локализации объектов. -- [Objects365](../../datasets/detect/objects365.md): Качественный набор данных большого масштаба для обнаружения объектов с 365 категориями объектов и более чем 600 тыс. помеченных изображений. -- [OpenImagesV7](../../datasets/detect/open-images-v7.md): Обширный набор данных от Google с 1,7 млн. изображений для обучения и 42 тыс. изображений для проверки. -- [SKU-110K](../../datasets/detect/sku-110k.md): Набор данных для плотного обнаружения объектов в розничной торговле с более чем 11 тыс. изображений и 1,7 млн. ограничивающих рамок. -- [VisDrone](../../datasets/detect/visdrone.md): Набор данных, содержащий данные для обнаружения объектов и многократного отслеживания из изображений, полученных с дронов, с более чем 10 тыс. изображений и видеопоследовательностей. -- [VOC](../../datasets/detect/voc.md): Набор данных Pascal Visual Object Classes (VOC) для обнаружения объектов и сегментации с 20 категориями объектов и более чем 11 тыс. изображений. -- [xView](../../datasets/detect/xview.md): Набор данных для обнаружения объектов на изображениях с воздуха с 60 категориями объектов и более чем 1 млн. аннотированных объектов. - -## [Наборы данных для индивидуальной сегментации](../../datasets/segment/index.md) - -Индивидуальная сегментация - это метод компьютерного зрения, включающий идентификацию и локализацию объектов на изображении на уровне пикселей. - -- [COCO](../../datasets/segment/coco.md): Масштабный набор данных, разработанный для задач обнаружения объектов, сегментации и аннотирования с более чем 200 тыс. помеченных изображений. -- [COCO8-seg](../../datasets/segment/coco8-seg.md): Уменьшенный набор данных для задач индивидуальной сегментации, содержащий подмножество из 8 изображений COCO с аннотациями сегментации. - -## [Оценка поз](../../datasets/pose/index.md) - -Оценка позы - это техника, используемая для определения позы объекта относительно камеры или системы координат мира. - -- [COCO](../../datasets/pose/coco.md): Масштабный набор данных с аннотациями человеческой позы, разработанный для задач оценки позы. -- [COCO8-pose](../../datasets/pose/coco8-pose.md): Уменьшенный набор данных для задач оценки позы, содержащий подмножество из 8 изображений COCO с аннотациями позы человека. -- [Tiger-pose](../../datasets/pose/tiger-pose.md): Компактный набор данных из 263 изображений, сфокусированных на тиграх, аннотированных 12 ключевыми точками на тигре для задач оценки позы. - -## [Классификация](../../datasets/classify/index.md) - -Классификация изображений - это задача компьютерного зрения, которая включает категоризацию изображения в один или несколько заранее определенных классов или категорий на основе его визуального содержания. - -- [Caltech 101](../../datasets/classify/caltech101.md): Набор данных, содержащий изображения 101 категории объектов для задач классификации изображений. -- [Caltech 256](../../datasets/classify/caltech256.md): Расширенная версия Caltech 101 с 256 категориями объектов и более сложными изображениями. -- [CIFAR-10](../../datasets/classify/cifar10.md): Набор данных из 60 тыс. цветных изображений размером 32x32 в 10 классах, по 6 тыс. изображений на класс. -- [CIFAR-100](../../datasets/classify/cifar100.md): Расширенная версия CIFAR-10 со 100 категориями объектов и 600 изображениями на класс. -- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): Набор данных из 70 тыс. изображений в оттенках серого 10 модных категорий для задач классификации изображений. -- [ImageNet](../../datasets/classify/imagenet.md): Масштабный набор данных для обнаружения объектов и классификации изображений с более чем 14 млн. изображений и 20 тыс. категорий. -- [ImageNet-10](../../datasets/classify/imagenet10.md): Уменьшенное подмножество ImageNet с 10 категориями для более быстрого экспериментирования и тестирования. -- [Imagenette](../../datasets/classify/imagenette.md): Уменьшенное подмножество ImageNet, содержащее 10 легко различаемых классов для более быстрого обучения и тестирования. -- [Imagewoof](../../datasets/classify/imagewoof.md): Более сложное подмножество ImageNet, содержащее 10 категорий пород собак для задач классификации изображений. -- [MNIST](../../datasets/classify/mnist.md): Набор данных из 70 тыс. изображений в оттенках серого рукописных цифр для задач классификации изображений. - -## [Ориентированные Ограничивающие Рамки (OBB)](../../datasets/obb/index.md) - -Ориентированные ограничивающие рамки (OBB) - это метод в компьютерном зрении для обнаружения наклонных объектов на изображениях с использованием повернутых ограничивающих рамок, часто применяемый к аэрофотосъемке и спутниковым изображениям. - -- [DOTAv2](../../datasets/obb/dota-v2.md): Популярный набор данных аэрофотосъемки OBB с 1,7 миллионами инста nces и 11,268 изображениями. - -## [Многократное отслеживание объектов](../../datasets/track/index.md) - -Многократное отслеживание объектов - это техника компьютерного зрения, которая включает обнаружение и отслеживание нескольких объектов во времени в видеопоследовательности. - -- [Argoverse](../../datasets/detect/argoverse.md): Набор данных, содержащий данные о 3D отслеживании и прогнозировании движения из городских условий с подробными аннотациями для задач многократного отслеживания объектов. -- [VisDrone](../../datasets/detect/visdrone.md): Набор данных, содержащий данные для обнаружения объектов и многократного отслеживания из изображений, полученных с дронов, с более чем 10 тыс. изображений и видеопоследовательностей. - -## Внесение новых наборов данных - -Внесение нового набора данных включает несколько шагов для обеспечения его соответствия существующей инфраструктуре. Ниже приведены необходимые шаги: - -### Шаги для внесения нового набора данных - -1. **Сбор изображений**: Соберите изображения, которые принадлежат набору данных. Их можно собрать из различных источников, таких как публичные базы данных или ваш собственный сбор. - -2. **Аннотация изображений**: Пометьте эти изображения ограничивающими рамками, сегментами или ключевыми точками в зависимости от задачи. - -3. **Экспорт аннотаций**: Конвертируйте эти аннотации в формат файлов YOLO `*.txt`, который поддерживается Ultralytics. - -4. **Организация набора данных**: Распределите ваш набор данных в правильную структуру папок. У вас должны быть каталоги верхнего уровня `train/` и `val/`, и в каждом из них подкаталоги `images/` и `labels/`. - - ``` - dataset/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **Создание файла `data.yaml`**: В корневой директории вашего набора данных создайте файл `data.yaml`, который описывает набор данных, классы и другую необходимую информацию. - -6. **Оптимизация изображений (опционально)**: Если вы хотите уменьшить размер набора данных для более эффективной обработки, вы можете оптимизировать изображения с помощью приведенного ниже кода. Это не является обязательным, но рекомендуется для уменьшения размеров набора данных и ускорения скорости загрузки. - -7. **Архивация набора данных**: Сжать всю папку набора данных в zip-файл. - -8. **Документация и Pull Request (PR)**: Создайте страницу документации, описывающую ваш набор данных и его соответствие существующей структуре. После этого отправьте Pull Request. Смотрите [Руководство по внесению вклада в Ultralytics](https://docs.ultralytics.com/help/contributing) для получения более подробной информации о том, как отправить PR. - -### Пример кода для оптимизации и архивации набора данных - -!!! Example "Оптимизация и архивация набора данных" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # Определите директорию набора данных - path = Path('path/to/dataset') - - # Оптимизация изображений в наборе данных (опционально) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # Архивация набора данных в 'path/to/dataset.zip' - zip_directory(path) - ``` - -Следуя этим шагам, вы сможете внести новый набор данных, который хорошо интегрируется с существующей структурой Ultralytics. diff --git a/docs/ru/index.md b/docs/ru/index.md deleted file mode 100644 index dca5563cbdb..00000000000 --- a/docs/ru/index.md +++ /dev/null @@ -1,83 +0,0 @@ ---- -comments: true -description: Изучите полное руководство по Ultralytics YOLOv8, модели обнаружения объектов и сегментации изображений с высокой скоростью и точностью. Учебники по установке, предсказаниям, тренировке и многое другое. -keywords: Ultralytics, YOLOv8, обнаружение объектов, сегментация изображений, машинное обучение, глубокое обучение, компьютерное зрение, установка YOLOv8, предсказание YOLOv8, тренировка YOLOv8, история YOLO, лицензии YOLO ---- - -
-

- - Ultralytics YOLO banner -

- GitHub Ultralytics - space - LinkedIn Ultralytics - space - Twitter Ultralytics - space - YouTube Ultralytics - space - TikTok Ultralytics - space - Instagram Ultralytics - space - Discord Ultralytics -
-
- CI Ultralytics - Покрытие кода Ultralytics - Цитирование YOLOv8 - Загрузки Docker - Discord -
- Запустить на Gradient - Открыть в Colab - Открыть в Kaggle -
- -Представляем [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics) — последнюю версию знаменитой модели для обнаружения объектов в реальном времени и сегментации изображений. YOLOv8 основан на передовом прогрессе в области глубокого обучения и компьютерного зрения и предлагает непревзойденную производительность в отношении скорости и точности. Его оптимизированная конструкция делает его подходящим для различных приложений и легко адаптируемым к различным аппаратным платформам, от устройств на краю сети до облачных API. - -Исследуйте документацию YOLOv8 — обширный ресурс, разработанный, чтобы помочь вам понять и использовать его функции и возможности. Независимо от того, являетесь ли вы опытным практиком машинного обучения или новичком в этой области, этот центр ресурсов нацелен на максимальное раскрытие потенциала YOLOv8 в ваших проектах. - -!!! Note "Заметка" - - 🚧 Наша многоязычная документация в настоящее время находится в стадии разработки, и мы усердно работаем над ее улучшением. Спасибо за ваше терпение! 🙏 - -## С чего начать - -- **Установите** `ultralytics` с помощью pip и приступайте к работе за несколько минут   [:material-clock-fast: Начать работу](quickstart.md){ .md-button } -- **Предскажите** новые изображения и видео с помощью YOLOv8   [:octicons-image-16: Предсказания для изображений](modes/predict.md){ .md-button } -- **Тренируйте** новую модель YOLOv8 на своих собственных наборах данных   [:fontawesome-solid-brain: Тренировать модель](modes/train.md){ .md-button } -- **Исследуйте** задачи YOLOv8, такие как сегментация, классификация, оценка позы и отслеживание   [:material-magnify-expand: Исследовать задачи](tasks/index.md){ .md-button } - -

-
- -
- Смотрите: Как тренировать модель YOLOv8 на своем пользовательском наборе данных в Google Colab. -

- -## YOLO: Краткая история - -[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once — «Смотришь только один раз»), популярная модель для обнаружения объектов и сегментации изображений, была разработана Джозефом Редмоном и Али Фархади из Вашингтонского университета. Запущенная в 2015 году, YOLO быстро обрела популярность благодаря своей высокой скорости и точности. - -- [YOLOv2](https://arxiv.org/abs/1612.08242), выпущенная в 2016 году, улучшила оригинальную модель, включив в себя пакетную нормализацию, якорные окна и кластеры размеров. -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), запущенная в 2018 году, дополнительно улучшила производительность модели, используя более эффективную основную сеть, множество якорей и пирамидальное пространственное пулинг. -- [YOLOv4](https://arxiv.org/abs/2004.10934) была выпущена в 2020 году, представив такие инновации, как увеличение данных Mosaic, новую свободную от якорьной голову детектирования и новую функцию потерь. -- [YOLOv5](https://github.com/ultralytics/yolov5) дальше улучшила производительность модели и добавила новые функции, такие как оптимизация гиперпараметров, интегрированнное отслеживание экспериментов и автоматический экспорт в популярные форматы. -- [YOLOv6](https://github.com/meituan/YOLOv6) была опубликована в открытом доступе компанией [Meituan](https://about.meituan.com/) в 2022 году и используется во многих автономных роботах доставки компании. -- [YOLOv7](https://github.com/WongKinYiu/yolov7) добавила дополнительные задачи, такие как оценка позы по набору данных ключевых точек COCO. -- [YOLOv8](https://github.com/ultralytics/ultralytics) — последняя версия YOLO от Ultralytics. Будучи передовой, современной моделью, YOLOv8 основана на успехе предыдущих версий, внедряя новые функции и усовершенствования для повышения производительности, гибкости и эффективности. YOLOv8 поддерживает полный спектр задач в области компьютерного зрения, включая [обнаружение](tasks/detect.md), [сегментацию](tasks/segment.md), [оценку позы](tasks/pose.md), [отслеживание](modes/track.md) и [классификацию](tasks/classify.md). Это многосторонность позволяет пользователям использовать возможности YOLOv8 в самых разнообразных приложениях и сферах деятельности. - -## Лицензии YOLO: Как лицензируется YOLO от Ultralytics? - -Ultralytics предлагает два варианта лицензирования для удовлетворения разнообразных сценариев использования: - -- **Лицензия AGPL-3.0**: Эта одобренная [OSI](https://opensource.org/licenses/) лицензия с открытым исходным кодом идеально подходит для студентов и энтузиастов, способствуя открытому сотрудничеству и обмену знаниями. Подробную информацию смотрите в файле [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE). -- **Корпоративная лицензия**: Разработанная для коммерческого использования, эта лицензия позволяет беспрепятственно интегрировать программное обеспечение и AI-модели Ultralytics в товары и услуги коммерческого назначения, обходя требования открытого исходного кода AGPL-3.0. Если ваш сценарий включает внедрение наших решений в коммерческое предложение, обратитесь через [Лицензирование Ultralytics](https://ultralytics.com/license). - -Наша стратегия лицензирования разработана, чтобы обеспечить возврат усовершенствований наших проектов с открытым исходным кодом обществу. Мы твердо привержены принципам открытого исходного кода ❤️ и наша миссия заключается в гарантировании того, что наши вклады могут быть использованы и расширены таким образом, который будет полезен для всех. diff --git a/docs/ru/models/fast-sam.md b/docs/ru/models/fast-sam.md deleted file mode 100644 index 4756718b4d7..00000000000 --- a/docs/ru/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: Исследуйте FastSAM, базирующуюся на CNN сегментацию объектов в реальном времени на изображениях. Улучшенное взаимодействие с пользователем, высокая вычислительная эффективность и применимость к различным задачам компьютерного зрения. -keywords: FastSAM, машинное обучение, решение на базе CNN, сегментация объектов, решение в реальном времени, Ultralytics, задачи компьютерного зрения, обработка изображений, применение в промышленности, пользовательское взаимодействие ---- - -# Модель Fast Segment Anything (FastSAM) - -Модель Fast Segment Anything (FastSAM) - это новаторское решение на базе CNN, предназначенное для решения задачи сегментации объектов в реальном времени. Эта задача разработана для сегментации любого объекта на изображении на основе различных возможных запросов пользователя. FastSAM значительно снижает вычислительные требования, при этом сохраняя конкурентоспособность работы, что делает ее практически подходящей для различных задач компьютерного зрения. - -![Обзор архитектуры модели Fast Segment Anything (FastSAM)](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## Обзор - -FastSAM разработана для преодоления ограничений [модели Segment Anything (SAM)](sam.md), тяжелой модели Transformer, требующей значительных вычислительных ресурсов. FastSAM разделяет задачу сегментации объектов на два последовательных этапа: сегментация всех экземпляров и выбор, основанный на запросах пользователя. На первом этапе используется [YOLOv8-seg](../tasks/segment.md) для создания сегментационных масок всех экземпляров на изображении. На втором этапе модель выводит область интереса, соответствующую запросу. - -## Основные особенности - -1. **Решение в реальном времени:** Благодаря эффективности вычислений на базе CNN, FastSAM обеспечивает решение задачи сегментации объектов в реальном времени, что делает ее ценной для применения в промышленных приложениях, требующих быстрых результатов. - -2. **Эффективность и производительность:** FastSAM обеспечивает значительное снижение вычислительных и ресурсных требований, не ухудшая качество работы. Она достигает сопоставимой производительности с моделью SAM, но требует значительно меньше вычислительных ресурсов, что позволяет использовать ее в реальном времени. - -3. **Сегментация на основе запросов пользователя:** FastSAM может выполнять сегментацию любого объекта на изображении, основываясь на различных возможных запросах пользователя, что обеспечивает гибкость и приспособляемость к различным сценариям. - -4. **Основана на YOLOv8-seg:** FastSAM основана на модели [YOLOv8-seg](../tasks/segment.md), которая является детектором объектов с ветвью сегментации экземпляров. Это позволяет ей эффективно создавать сегментационные маски всех экземпляров на изображении. - -5. **Высокие результаты на показателях:** При выполнении задачи предложения объектов на наборе данных MS COCO FastSAM достигает высоких показателей производительности при значительно большей скорости работы, чем [SAM](sam.md) на одном графическом процессоре NVIDIA RTX 3090, что свидетельствует о ее эффективности и способности. - -6. **Практическое применение:** Предложенный подход предоставляет новое практическое решение для большого количества задач компьютерного зрения с очень высокой скоростью, в десятки или сотни раз превышающей скорость существующих методов. - -7. **Возможность сжатия модели:** FastSAM демонстрирует возможность существенно снизить вычислительные затраты, введя искусственное преимущество в структуру модели, открывая новые возможности для создания крупномасштабных архитектур моделей для общих задач компьютерного зрения. - -## Доступные модели, поддерживаемые задачи и режимы работы - -В следующей таблице представлены доступные модели с их конкретными заранее обученными весами, поддерживаемые задачи и совместимость с различными режимами работы, такими как [Вывод](../modes/predict.md), [Валидация](../modes/val.md), [Обучение](../modes/train.md) и [Экспорт](../modes/export.md), обозначенные значками ✅ для поддерживаемых режимов и значками ❌ для неподдерживаемых режимов. - -| Тип модели | Заранее обученные веса | Поддерживаемые задачи | Вывод | Валидация | Обучение | Экспорт | -|------------|------------------------|------------------------------------------------|-------|-----------|----------|---------| -| FastSAM-s | `FastSAM-s.pt` | [Сегментация экземпляров](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [Сегментация экземпляров](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Примеры использования - -Модели FastSAM легко интегрировать в ваши приложения на Python. Ultralytics предоставляет удобный пользовательский интерфейс API и команды CLI для упрощения разработки. - -### Использование для предсказаний - -Для выполнения обнаружения объектов на изображении используйте метод `predict`, как показано ниже: - -!!! Example "Пример" - - === "Python" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # Определение исхода вывода - source = 'путь/к/фото_автобуса.jpg' - - # Создание модели FastSAM - model = FastSAM('FastSAM-s.pt') # или FastSAM-x.pt - - # Выполнение вывода на изображение - результаты = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # Создание объекта Prompt Process - prompt_process = FastSAMPrompt(source, результаты, device='cpu') - - # Вывод всего - ann = prompt_process.everything_prompt() - - # Прямоугольная область по умолчанию [0,0,0,0] -> [x1,y1,x2,y2] - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # Текстовый запрос - ann = prompt_process.text_prompt(text='фотография собаки') - - # Запрос точки - # Точки по умолчанию [[0,0]] [[x1,y1],[x2,y2]] - # метка точки по умолчанию [0] [1,0] 0:фон, 1:передний план - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # Загрузка модели FastSAM и сегментация всего объекта на нем - yolo segment predict model=FastSAM-s.pt source=путь/к/фото_автобуса.jpg imgsz=640 - ``` - -В этом фрагменте кода демонстрируется простота загрузки предобученной модели и выполнения предсказаний на изображении. - -### Использование для валидации - -Валидацию модели на наборе данных можно выполнить следующим образом: - -!!! Example "Пример" - - === "Python" - ```python - from ultralytics import FastSAM - - # Создание модели FastSAM - model = FastSAM('FastSAM-s.pt') # или FastSAM-x.pt - - # Валидация модели - результаты = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # Загрузка модели FastSAM и ее валидация на примере набора данных COCO8 при размере изображения 640 - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -Пожалуйста, обратите внимание, что FastSAM поддерживает только обнаружение и сегментацию единственного класса объектов. Это означает, что модель будет распознавать и сегментировать все объекты как один и тот же класс. Поэтому при подготовке набора данных вам нужно преобразовать все идентификаторы категорий объектов в 0. - -## Официальное использование FastSAM - -FastSAM также доступна непосредственно из репозитория [https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM). Вот краткий обзор типичных шагов для использования FastSAM: - -### Установка - -1. Клонируйте репозиторий FastSAM: - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. Создайте и активируйте виртуальное окружение Conda с Python 3.9: - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. Перейдите в каталог склонированного репозитория и установите требуемые пакеты: - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. Установите модель CLIP: - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### Пример использования - -1. Скачайте [файл контрольной точки модели](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing). - -2. Используйте модель FastSAM для выполнения вывода. Примеры команд: - - - Сегментация всего объекта на изображении: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - Сегментация определенных объектов с использованием текстового запроса: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "желтая собака" - ``` - - - Сегментация объектов в пределах ограничивающей рамки (укажите координаты рамки в формате xywh): - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - Сегментация объектов, находящихся близко к определенным точкам: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -Кроме того, вы можете опробовать FastSAM с помощью [демонстрационного ноутбука Colab](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing) или на [веб-демо HuggingFace](https://huggingface.co/spaces/An-619/FastSAM) для визуального опыта. - -## Цитирование и благодарности - -Мы хотели бы выразить благодарность авторам FastSAM за их значительный вклад в области сегментации объектов в реальном времени: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Оригинальная статья FastSAM доступна на [arXiv](https://arxiv.org/abs/2306.12156). Авторы сделали свою работу общедоступной, и код можно получить на [GitHub](https://github.com/CASIA-IVA-Lab/FastSAM). Мы ценим их усилия по развитию отрасли и доступу к их работе для широкого круга пользователей. diff --git a/docs/ru/models/index.md b/docs/ru/models/index.md deleted file mode 100644 index 43fd65b7510..00000000000 --- a/docs/ru/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Исследуйте разнообразный спектр поддерживаемых Ultralytics моделей семейства YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS и RT-DETR. Начните работу с примерами использования как для CLI, так и для Python. -keywords: Ultralytics, документация, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, модели, архитектуры, Python, CLI ---- - -# Поддерживаемые модели Ultralytics - -Добро пожаловать в документацию по моделям Ultralytics! Мы поддерживаем широкий спектр моделей, каждая из которых адаптирована для конкретных задач, таких как [обнаружение объектов](../tasks/detect.md), [сегментация на уровне инстанций](../tasks/segment.md), [классификация изображений](../tasks/classify.md), [оценка позы](../tasks/pose.md) и [слежение за несколькими объектами](../modes/track.md). Если вы заинтересованы в добавлении архитектуры своей модели в Ultralytics, ознакомьтесь с нашим [Руководством для участников](../../help/contributing.md). - -!!! Note "Примечание" - - 🚧 Наша документация на разных языках находится в стадии разработки, и мы усердно работаем над ее улучшением. Спасибо за ваше терпение! 🙏 - -## Особенные модели - -Вот некоторые ключевые поддерживаемые модели: - -1. **[YOLOv3](yolov3.md)**: Третье поколение семейства моделей YOLO, авторства Джозефа Редмона, известное своей эффективностью в реальном времени для обнаружения объектов. -2. **[YOLOv4](yolov4.md)**: Нативное для darknet обновление YOLOv3, выпущенное Алексеем Бочковским в 2020 году. -3. **[YOLOv5](yolov5.md)**: Улучшенная версия архитектуры YOLO от Ultralytics, предлагающая лучшие компромиссы производительности и скорости по сравнению с предыдущими версиями. -4. **[YOLOv6](yolov6.md)**: Выпущенная в 2022 году компанией [Meituan](https://about.meituan.com/) и используемая во многих роботах автономной доставки компании. -5. **[YOLOv7](yolov7.md)**: Обновленные модели YOLO, выпущенные в 2022 году авторами YOLOv4. -6. **[YOLOv8](yolov8.md) НОВИНКА 🚀**: Последняя версия семейства YOLO, обладающая расширенными возможностями, такими как сегментация на уровне инстанций, оценка позы/ключевых точек и классификация. -7. **[Segment Anything Model (SAM)](sam.md)**: Модель сегментации всего и вся (SAM) от Meta. -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**: MobileSAM для мобильных приложений от университета Kyung Hee. -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**: FastSAM от Группы анализа изображений и видео, Института автоматики, Китайской академии наук. -10. **[YOLO-NAS](yolo-nas.md)**: Модели нейронной архитектуры поиска YOLO (NAS). -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)**: Модели трансформеров реального времени для обнаружения объектов (RT-DETR) от Baidu PaddlePaddle. - -

-
- -
- Смотрите: Запуск моделей YOLO от Ultralytics всего в несколько строк кода. -

- -## Начало работы: Примеры использования - -Этот пример предоставляет простые примеры обучения и вывода для YOLO. Полная документация по этим и другим [режимам](../modes/index.md) представлена на страницах документации [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) и [Export](../modes/export.md). - -Обратите внимание, что ниже приведен пример для моделей [Detect](../tasks/detect.md) YOLOv8 для обнаружения объектов. Для дополнительных поддерживаемых задач смотрите документацию по [Segment](../tasks/segment.md), [Classify](../tasks/classify.md) и [Pose](../tasks/pose.md). - -!!! Example "Пример" - - === "Python" - - Предобученные модели PyTorch `*.pt`, а также конфигурационные файлы `*.yaml` могут быть переданы в классы `YOLO()`, `SAM()`, `NAS()` и `RTDETR()`, чтобы создать экземпляр модели на Python: - - ```python - from ultralytics import YOLO - - # Загрузить предварительно обученную модель YOLOv8n для COCO - model = YOLO('yolov8n.pt') - - # Отобразить информацию о модели (необязательно) - model.info() - - # Обучить модель на примерном наборе данных COCO8 в течение 100 эпох - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Запустить вывод с помощью модели YOLOv8n на изображении 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Команды CLI доступны для непосредственного запуска моделей: - - ```bash - # Загрузить предварительно обученную модель YOLOv8n для COCO и обучить её на примерном наборе данных COCO8 в течение 100 эпох - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Загрузить предварительно обученную модель YOLOv8n для COCO и запустить вывод на изображении 'bus.jpg' - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## Вклад в новые модели - -Заинтересованы в том, чтобы внести свою модель в Ultralytics? Отлично! Мы всегда открыты для расширения нашего портфолио моделей. - -1. **Сделайте Fork Репозитория**: Начните с создания форка [репозитория Ultralytics на GitHub](https://github.com/ultralytics/ultralytics). - -2. **Склонируйте свой Fork**: Склонируйте ваш форк на локальную машину и создайте новую ветку для работы. - -3. **Реализуйте свою Модель**: Добавьте вашу модель, следуя стандартам программирования и руководящим принципам, указанным в нашем [Руководстве для участников](../../help/contributing.md). - -4. **Тщательно протестируйте**: Убедитесь, что вы тщательно протестировали свою модель, как изолированно, так и как часть пайплайна. - -5. **Создайте Pull Request**: Как только вы будете удовлетворены своей моделью, создайте pull request в основной репозиторий для рассмотрения. - -6. **Код-ревью и Слияние**: После рассмотрения, если ваша модель соответствует нашим критериям, она будет объединена с основным репозиторием. - -Для подробных инструкций см. наше [Руководство для участников](../../help/contributing.md). diff --git a/docs/ru/models/mobile-sam.md b/docs/ru/models/mobile-sam.md deleted file mode 100644 index 906ec88fb7e..00000000000 --- a/docs/ru/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: Узнайте больше о MobileSAM, его реализации, сравнении с оригинальным SAM и о том, как его загрузить и протестировать в фреймворке Ultralytics. Улучшите свои мобильные приложения уже сегодня. -keywords: MobileSAM, Ultralytics, SAM, мобильные приложения, Arxiv, GPU, API, кодировщик изображений, декодер масок, загрузка модели, метод тестирования ---- - -![Логотип MobileSAM](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# Mobile Segment Anything (MobileSAM) - -Теперь доступна статья MobileSAM в [архиве arXiv](https://arxiv.org/pdf/2306.14289.pdf). - -Демонстрацию работы MobileSAM на CPU можно найти по этой [ссылке](https://huggingface.co/spaces/dhkim2810/MobileSAM). Время выполнения на Mac i5 CPU составляет примерно 3 секунды. В демонстрационной версии Hugging Face интерфейс и менее производительные процессоры CPU могут вызывать замедление работы, но она продолжает работать эффективно. - -MobileSAM реализован в различных проектах, включая [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything), [AnyLabeling](https://github.com/vietanhdev/anylabeling) и [Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D). - -MobileSAM обучается на одном графическом процессоре (GPU) со 100 тысячами данных (1% от оригинальных изображений) за менее чем день. Код для обучения будет доступен в будущем. - -## Доступные модели, поддерживаемые задачи и режимы работы - -В таблице представлены доступные модели с соответствующими предварительно обученными весами, поддерживаемыми задачами и их совместимостью с различными режимами работы, такими как [вывод](../modes/predict.md), [валидация](../modes/val.md), [тренировка](../modes/train.md) и [экспорт](../modes/export.md), указанными с помощью эмодзи ✅ для поддерживаемых режимов и эмодзи ❌ для неподдерживаемых. - -| Тип модели | Предварительно обученные веса | Поддерживаемые задачи | Вывод | Валидация | Тренировка | Экспорт | -|------------|-------------------------------|------------------------------------------------|-------|-----------|------------|---------| -| MobileSAM | `mobile_sam.pt` | [Сегментация экземпляров](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Переход от SAM к MobileSAM - -Поскольку MobileSAM сохраняет ту же самую последовательность операций, что и оригинальный SAM, в него интегрированы все интерфейсы для предобработки, постобработки и прочие интерфейсы. В результате, пользователи, уже использующие оригинальный SAM, могут легко перейти на MobileSAM. - -MobileSAM работает сравнимо с оригинальным SAM и имеет ту же самую последовательность операций, за исключением изменения кодировщика изображений. В частности, мы заменяем оригинальный "тяжёлый" кодировщик изображений ViT-H (632M) на более компактный Tiny-ViT (5M). На одном графическом процессоре MobileSAM работает примерно за 12 мс на изображение: 8 мс на кодировщик изображений и 4 мс на декодер масок. - -В таблице представлено сравнение кодировщиков изображений на базе ViT: - -| Кодировщик изображений | Оригинальный SAM | MobileSAM | -|------------------------|------------------|-----------| -| Параметры | 611M | 5M | -| Скорость | 452 мс | 8 мс | - -Как оригинальный SAM, так и MobileSAM используют один и тот же декодер масок, управляемый подсказками: - -| Декодер масок | Оригинальный SAM | MobileSAM | -|---------------|------------------|-----------| -| Параметры | 3.876M | 3.876M | -| Скорость | 4 мс | 4 мс | - -Ниже приведено сравнение всей последовательности операций: - -| Полная последовательность операций (Enc+Dec) | Оригинальный SAM | MobileSAM | -|----------------------------------------------|------------------|-----------| -| Параметры | 615M | 9.66M | -| Скорость | 456 мс | 12 мс | - -Производительность MobileSAM и оригинального SAM демонстрируется с использованием подсказок в форме точки и прямоугольника. - -![Изображение с подсказкой в виде точки](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![Изображение с подсказкой в виде прямоугольника](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -MobileSAM обеспечивает примерно в 5 раз меньший размер и в 7 раз большую скорость работы по сравнению с текущим FastSAM. Более подробная информация доступна на [странице проекта MobileSAM](https://github.com/ChaoningZhang/MobileSAM). - -## Тестирование MobileSAM в Ultralytics - -Как и оригинальный SAM, мы предлагаем простой метод тестирования в Ultralytics, включая режимы тестирования с использованием подсказок в форме точки и прямоугольника. - -### Загрузка модели - -Вы можете загрузить модель [здесь](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt). - -### Подсказка в форме точки - -!!! Example "Пример" - - === "Python" - ```python - from ultralytics import SAM - - # Загрузка модели - model = SAM('mobile_sam.pt') - - # Предсказание сегмента на основе подсказки в форме точки - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### Подсказка в форме прямоугольника - -!!! Example "Пример" - - === "Python" - ```python - from ultralytics import SAM - - # Загрузка модели - model = SAM('mobile_sam.pt') - - # Предсказание сегмента на основе подсказки в форме прямоугольника - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -Мы реализовали `MobileSAM` и `SAM` с использованием одного и того же API. Для получения дополнительной информации о использовании, пожалуйста, см. [страницу SAM](sam.md). - -## Цитирование и благодарности - -Если вы считаете MobileSAM полезным в своей научно-исследовательской или разработочной работе, пожалуйста, рассмотрите возможность цитирования нашей статьи: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/ru/models/rtdetr.md b/docs/ru/models/rtdetr.md deleted file mode 100644 index 7b8b374fd94..00000000000 --- a/docs/ru/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: Узнайте о возможностях и преимуществах RT-DETR от Baidu - эффективного и гибкого детектора объектов в реальном времени, основанного на Vision Transformers. Включает предобученные модели. -keywords: RT-DETR, Baidu, Vision Transformers, object detection, real-time performance, CUDA, TensorRT, IoU-aware query selection, Ultralytics, Python API, PaddlePaddle ---- - -# RT-DETR от Baidu: детектор объектов в реальном времени на основе Vision Transformers - -## Обзор - -Real-Time Detection Transformer (RT-DETR), разработанный компанией Baidu, является передовым энд-ту-энд детектором объектов, который обеспечивает высокую точность при работе в реальном времени. Он использует преимущества Vision Transformers (ViT) для эффективной обработки мультимасштабных признаков путем разделения взаимодействия внутри масштаба и слияния между масштабами. RT-DETR легко адаптируется для поддержки гибкой настройки скорости вывода с использованием разных слоев декодера без необходимости повторного обучения. Модель показывает высокую производительность на ускоренных вычислительных платформах, таких как CUDA с TensorRT, превосходя многие другие детекторы объектов в реальном времени. - -![Пример модели](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**Обзор RT-DETR от Baidu.** Схема архитектуры модели RT-DETR показывает последние три стадии основной сети {S3, S4, S5} в качестве входных данных для энкодера. Эффективный гибридный энкодер преобразует мультимасштабные признаки в последовательность признаков изображения с помощью интерактивного интраскального взаимодействия признаков (AIFI) и модуля слияния признаков между кросс-масштабами (CCFM). Для начальной инициализации объектных запросов декодера используется выбор запросов с учетом оценки пересечения объединения (IoU-aware query selection). Наконец, декодер с вспомогательными головами предсказания итеративно оптимизирует объектные запросы для генерации рамок и вероятностей ([источник](https://arxiv.org/pdf/2304.08069.pdf)). - -### Основные особенности - -- **Эффективный гибридный энкодер:** RT-DETR от Baidu использует эффективный гибридный энкодер, который обрабатывает мультимасштабные признаки путем разделения взаимодействия внутри масштаба и слияния между масштабами. Это уникальное решение на основе Vision Transformers снижает вычислительные затраты и позволяет осуществлять детекцию объектов в реальном времени. -- **Выбор запроса с учетом оценки пересечения объединения (IoU-aware):** RT-DETR от Baidu улучшает инициализацию запросов объектов путем использования осознанного запроса с учетом оценки пересечения объединения (IoU-aware query selection). Это позволяет модели фокусироваться на наиболее значимых объектах на сцене и повышает точность детектирования. -- **Гибкая скорость вывода:** RT-DETR от Baidu поддерживает гибкую настройку скорости вывода с использованием различных слоев декодера без необходимости повторного обучения. Гибкость данного подхода упрощает его применение в различных сценариях детекции объектов в реальном времени. - -## Предобученные модели - -Python API Ultralytics предоставляет предобученные модели RT-DETR от PaddlePaddle с различными масштабами: - -- RT-DETR-L: 53.0% AP на COCO val2017, 114 FPS на GPU T4 -- RT-DETR-X: 54.8% AP на COCO val2017, 74 FPS на GPU T4 - -## Примеры использования - -В этом примере представлены простые примеры обучения и вывода модели RT-DETR. Для полной документации по этим и другим [режимам](../modes/index.md) смотрите страницы документации [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) и [Export](../modes/export.md). - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import RTDETR - - # Загрузка предобученной модели RT-DETR-l на COCO - model = RTDETR('rtdetr-l.pt') - - # Отображение информации о модели (по желанию) - model.info() - - # Обучение модели на примере набора данных COCO8 в течение 100 эпох - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Осуществление вывода модели RT-DETR-l на изображении 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # Загрузка предобученной модели RT-DETR-l на COCO и ее обучение на примере набора данных COCO8 в течение 100 эпох - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # Загрузка предобученной модели RT-DETR-l на COCO и вывод ее на изображении 'bus.jpg' - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## Поддерживаемые задачи и режимы - -В таблице представлены типы моделей, конкретные предобученные веса, задачи, поддерживаемые каждой моделью, а также различные режимы ([Train](../modes/train.md) , [Val](../modes/val.md), [Predict](../modes/predict.md), [Export](../modes/export.md)), поддерживаемые каждой моделью, что обозначено символом ✅. - -| Тип модели | Предобученные веса | Поддерживаемые задачи | Вывод | Валидация | Обучение | Экспорт | -|---------------------|--------------------|--------------------------------------------|-------|-----------|----------|---------| -| RT-DETR Large | `rtdetr-l.pt` | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR Extra-Large | `rtdetr-x.pt` | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## Цитирование и благодарности - -Если вы используете Baidu RT-DETR в своих исследованиях или разработке, пожалуйста, процитируйте [оригинальную статью](https://arxiv.org/abs/2304.08069): - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Мы хотели бы выразить свою благодарность компании Baidu и команде [PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection) за создание и поддержку этого ценного ресурса для сообщества компьютерного зрения. Мы очень ценим их вклад в области разработки детекторов объектов в реальном времени на основе Vision Transformers, RT-DETR. - -*Keywords: RT-DETR, Transformer, ViT, Vision Transformers, Baidu RT-DETR, PaddlePaddle, Paddle Paddle RT-DETR, real-time object detection, Vision Transformers-based object detection, pre-trained PaddlePaddle RT-DETR models, Baidu's RT-DETR usage, Ultralytics Python API* diff --git a/docs/ru/models/sam.md b/docs/ru/models/sam.md deleted file mode 100644 index 11479c31bdf..00000000000 --- a/docs/ru/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: Изучите передовую модель сегментации изображений "Segment Anything Model" (SAM) от компании Ultralytics, которая позволяет выполнять сегментацию изображений в режиме реального времени. Узнайте о возможности дать подсказки модели для выполнения сегментации, о ее возможностях нулевой настройки и о том, как ее использовать. -keywords: Ultralytics, сегментация изображений, "Segment Anything Model", SAM, набор данных SA-1B, работа в режиме реального времени, нулевая настройка, обнаружение объектов, анализ изображений, машинное обучение ---- - -# Segment Anything Model (SAM) - -Добро пожаловать в мир передовой модели сегментации изображений "Segment Anything Model" (SAM). Эта революционная модель установила новые стандарты в области сегментации изображений, предоставляя возможность ввода подсказок для выполнения сегментации в реальном времени. - -## Введение в Segment Anything Model (SAM) - -Segment Anything Model (SAM) - это передовая модель сегментации изображений, позволяющая осуществлять сегментацию с возможностью задавать подсказки, что обеспечивает уникальную гибкость в задачах анализа изображений. SAM является ключевым элементом инициативы "Segment Anything", которая вводит новую модель, задачу и набор данных для сегментации изображений. - -Благодаря своему передовому дизайну, SAM может адаптироваться к новым распределениям изображений и задачам без предварительных знаний, что называется возможностью нулевой настройки. Обученная на обширном наборе данных [SA-1B](https://ai.facebook.com/datasets/segment-anything/), который содержит более 1 миллиарда масок, распределенных на 11 миллионов тщательно отобранных изображений, модель SAM проявила впечатляющую производительность в задачах нулевой настройки, превосходя предыдущие полностью надзираемые результаты во многих случаях. - -![Пример изображения из набора данных](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -Изображения с наложенными масками из нашего нового набора данных SA-1B. SA-1B содержит 11 млн. разнообразных лицензированных изображений высокого разрешения, сгенерированных полностью автоматически SAM, и 1,1 млрд. высококачественных масок сегментации. Эти маски были аннотированы полностью автоматически SAM, и, как показали человеческие оценки и множество экспериментов, они являются высококачественными и разнообразными. Изображения сгруппированы по количеству масок на изображение для наглядности (в среднем на изображение приходится около 100 масок). - -## Основные особенности модели Segment Anything (SAM) - -- **Задача предоставления подсказок для сегментации:** SAM была разработана с учетом задачи предоставления подсказок для сегментации, что позволяет ей генерировать корректные маски сегментации на основе любых подсказок, таких как пространственные или текстовые подсказки, идентифицирующие объект. -- **Расширенная архитектура:** Модель Segment Anything использует мощный кодировщик изображений, кодировщик подсказок и легкий декодер масок. Эта уникальная архитектура обеспечивает гибкое использование подсказок, вычисление масок в реальном времени и учет неопределенности в задачах сегментации. -- **Набор данных SA-1B:** Набор данных SA-1B, предложенный проектом Segment Anything, содержит более 1 миллиарда масок на 11 миллионах изображений. Как самый большой набор данных для сегментации на сегодняшний день, он обеспечивает модели SAM разнообразный и масштабный источник данных для обучения. -- **Производительность при нулевой настройке:** Модель SAM проявляет выдающуюся производительность при выполнении задач сегментации в режиме нулевой настройки, что делает ее готовым к использованию инструментом для различных приложений с минимальной необходимостью настраивать подсказки. - -Для более подробного рассмотрения модели Segment Anything и набора данных SA-1B, пожалуйста, посетите [веб-сайт Segment Anything](https://segment-anything.com) и ознакомьтесь с исследовательской статьей [Segment Anything](https://arxiv.org/abs/2304.02643). - -## Доступные модели, поддерживаемые задачи и режимы работы - -В таблице представлены доступные модели с их специфическими заранее обученными весами, поддерживаемыми задачами и их совместимость с различными режимами работы, такими как [Inference](../modes/predict.md), [Validation](../modes/val.md), [Training](../modes/train.md) и [Export](../modes/export.md), обозначенная символами ✅ для поддерживаемых режимов и символами ❌ для неподдерживаемых режимов. - -| Тип модели | Заранее обученные веса | Поддерживаемые задачи | Inference | Validation | Training | Export | -|------------------------------------|------------------------|---------------------------------------------|-----------|------------|----------|--------| -| Базовая версия SAM (SAM base) | `sam_b.pt` | [Сегментация объектов](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| Расширенная версия SAM (SAM large) | `sam_l.pt` | [Сегментация объектов](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## Как использовать модель SAM: гибкость и мощность в сегментации изображений - -Модель Segment Anything может использоваться для множества задач, выходящих за рамки ее тренировочных данных. Это включает обнаружение границ, генерацию предложений объектов, сегментацию экземпляров и предварительное преобразование текста в маску. С использованием подсказок, SAM может быстро адаптироваться к новым задачам и распределениям данных в режиме нулевой настройки, делая его гибким и мощным инструментом для всех ваших потребностей в сегментации изображений. - -### Пример прогнозирования с использованием SAM - -!!! Example "Сегментация с указанием подсказки" - - Выполнение сегментации изображения с указанными подсказками. - - === "Python" - - ```python - from ultralytics import SAM - - # Загрузка модели - model = SAM('sam_b.pt') - - # Вывод информации о модели (по желанию) - model.info() - - # Выполнение вывода с указанием границы объекта (bboxes prompt) - model('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # Выполнение вывода с указанием точки (points prompt) - model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "Сегментация всего изображения" - - Сегментация всего изображения. - - === "Python" - - ```python - from ultralytics import SAM - - # Загрузка модели - model = SAM('sam_b.pt') - - # Вывод информации о модели (по желанию) - model.info() - - # Выполнение вывода - model('путь/к/изображению.jpg') - ``` - - === "CLI" - - ```bash - # Выполнение вывода с помощью модели SAM - yolo predict model=sam_b.pt source=путь/к/изображению.jpg - ``` - -- Логика здесь состоит в том, чтобы выполнить сегментацию всего изображения, если вы не передаете никаких подсказок (bboxes/points/masks). - -!!! Example "Пример SAMPredictor" - - В этом примере вы можете установить изображение один раз и выполнить множество прогнозирований с использованием подсказок, не запуская кодировщик изображения несколько раз. - - === "Прогнозирование с подсказками" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # Создание SAMPredictor - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # Установка изображения - predictor.set_image("ultralytics/assets/zidane.jpg") # установить с помощью файла изображения - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # установить с помощью np.ndarray - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # Сброс изображения - predictor.reset_image() - ``` - - Сегментация всего изображения с дополнительными аргументами. - - === "Сегментация всего изображения" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # Создание SAMPredictor - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # Сегментация с дополнительными аргументами - results = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- Больше дополнительных аргументов для `Сегментации всего изображения` см. [Ссылка на`Predictor/generate`](../../../reference/models/sam/predict.md). - -## Сравнение SAM и YOLOv8 - -Здесь мы сравниваем самую маленькую модель SAM, SAM-b, с самой маленькой моделью сегментации Ultralytics, [YOLOv8n-seg](../tasks/segment.md): - -| Модель | Размер | Параметры | Скорость (CPU) | -|------------------------------------------------|--------------------------------|----------------------------------|-------------------------------------------| -| SAM-b | 358 МБ | 94.7 млн. | 51096 мс/изображение | -| [MobileSAM](mobile-sam.md) | 40.7 МБ | 10.1 млн. | 46122 мс/изображение | -| [FastSAM-s](fast-sam.md) с основой YOLOv8 | 23.7 МБ | 11.8 млн. | 115 мс/изображение | -| Ultralytics [YOLOv8n-seg](../tasks/segment.md) | **6.7 МБ** (в 53.4 раз меньше) | **3.4 млн.** (в 27.9 раз меньше) | **59 мс/изображение** (в 866 раз быстрее) | - -Это сравнение показывает разницу в порядке величины между моделями по их размерам и скорости. В то время как SAM предлагает уникальные возможности автоматической сегментации, он не является прямым конкурентом моделям сегментации YOLOv8, которые являются более маленькими, быстрее и эффективнее. - -Тесты проводились на ноутбуке Apple M2 с 16 ГБ оперативной памяти 2023 года. Чтобы воспроизвести этот тест: - -!!! Example "Пример" - - === "Python" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # Анализ SAM-b - model = SAM('sam_b.pt') - model.info() - model('ultralytics/assets') - - # Анализ MobileSAM - model = SAM('mobile_sam.pt') - model.info() - model('ultralytics/assets') - - # Анализ FastSAM-s - model = FastSAM('FastSAM-s.pt') - model.info() - model('ultralytics/assets') - - # Анализ YOLOv8n-seg - model = YOLO('yolov8n-seg.pt') - model.info() - model('ultralytics/assets') - ``` - -## Авто-аннотация: быстрый путь к наборам данных для сегментации - -Авто-аннотация - это ключевая функция SAM, позволяющая пользователям генерировать [наборы данных для сегментации](https://docs.ultralytics.com/datasets/segment) с использованием предварительно обученной модели обнаружения. Эта функция позволяет быстро и точно аннотировать большое количество изображений, обходя необходимость трудоемкой ручной разметки. - -### Создание набора данных для сегментации с использованием модели обнаружения - -Для авто-аннотации набора данных с использованием фреймворка Ultralytics используйте функцию `auto_annotate`, как показано ниже: - -!!! Example "Пример" - - === "Python" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="path/to/images", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| Аргумент | Тип | Описание | Значение по умолчанию | -|------------|------------------------|--------------------------------------------------------------------------------------------------------------|-----------------------| -| data | str | Путь к папке с изображениями, которые должны быть аннотированы. | | -| det_model | str, опционально | Предварительно обученная модель обнаружения YOLO. По умолчанию 'yolov8x.pt'. | 'yolov8x.pt' | -| sam_model | str, опционально | Предварительно обученная модель сегментации SAM. По умолчанию 'sam_b.pt'. | 'sam_b.pt' | -| device | str, опционально | Устройство для запуска моделей. По умолчанию пустая строка (ЦП или ГП, если доступно). | | -| output_dir | str, None, опционально | Каталог для сохранения результатов аннотации. По умолчанию - папка "labels" в том же каталоге, что и "data". | None | - -Функция `auto_annotate` принимает путь к вашим изображениям со всеми опциональными аргументами для указания предварительно обученных моделей обнаружения и сегментации SAM, устройства для запуска моделей и каталога вывода для сохранения аннотированных результатов. - -Авто-аннотация с помощью предварительно обученных моделей может существенно сократить время и усилия, затрачиваемые на создание высококачественных наборов данных для сегментации. Эта функция особенно полезна для исследователей и разработчиков, работающих с большими сборниками изображений, поскольку она позволяет им сконцентрироваться на разработке и оценке моделей, а не на ручной разметке. - -## Цитирование и благодарности - -Если вам пригодилась модель SAM в вашей исследовательской или разработческой работе, пожалуйста, рассмотрите возможность цитирования нашей статьи: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Мы хотели бы выразить свою благодарность компании Meta AI за создание и поддержку этого ценного ресурса для сообщества визуального анализа. - -*keywords: Segment Anything, Segment Anything Model, SAM, Meta SAM, сегментация изображений, возможность давать подсказки для выполнения сегментации, производительность с нулевой настройкой, набор данных SA-1B, передовая архитектура, авто-аннотация, Ultralytics, предварительно обученные модели, базовая версия SAM, расширенная версия SAM, сегментация экземпляров, визуальный анализ, искусственный интеллект, машинное обучение, аннотация данных, маски сегментации, модель обнаружения, модель обнаружения YOLOv8, библиографическая ссылка, Meta AI.* diff --git a/docs/ru/models/yolo-nas.md b/docs/ru/models/yolo-nas.md deleted file mode 100644 index 20a766dfc5b..00000000000 --- a/docs/ru/models/yolo-nas.md +++ /dev/null @@ -1,121 +0,0 @@ ---- -comments: true -description: Изучите подробную документацию YOLO-NAS, превосходной модели обнаружения объектов. Узнайте о ее функциях, предварительно обученных моделях, использовании с помощью Ultralytics Python API и многом другом. -keywords: YOLO-NAS, Deci AI, обнаружение объектов, глубокое обучение, поиск нейроархитектур, Ultralytics Python API, модель YOLO, предварительно обученные модели, квантизация, оптимизация, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## Обзор - -Разработанный компанией Deci AI, YOLO-NAS является революционной фундаментальной моделью обнаружения объектов. Она является продуктом продвинутой технологии поиска нейроархитектур и специально разработана для преодоления ограничений предыдущих моделей YOLO. Благодаря существенному улучшению поддержки квантования и компромисса между точностью и задержкой, YOLO-NAS представляет собой значительный прорыв в области обнаружения объектов. - -![Иллюстрация модели](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**Обзор YOLO-NAS.** YOLO-NAS использует блоки, поддерживающие квантование, и селективное квантование для достижения оптимальной производительности. Модель, когда переводится в квантованную версию INT8, имеет минимальное падение точности, что является значительным улучшением по сравнению с другими моделями. Эти достижения приводят к превосходной архитектуре с беспрецедентными возможностями обнаружения объектов и выдающей производительностью. - -### Основные функции - -- **Базовый блок поддерживающий квантование:** YOLO-NAS предлагает новый базовый блок, который хорошо работает с квантованием, что позволяет преодолеть одно из значительных ограничений предыдущих моделей YOLO. -- **Совершенствование тренировки и квантования:** YOLO-NAS использует продвинутые схемы тренировки и пост-тренировочное квантование для улучшения производительности. -- **Оптимизация AutoNAC и предварительная обучение:** YOLO-NAS использует оптимизацию AutoNAC и предварительное обучение на известных наборах данных, таких как COCO, Objects365 и Roboflow 100. Это предварительное обучение делает модель идеально подходящей для решений по обнаружению объектов в производственных средах. - -## Предварительно обученные модели - -Ощутите мощь обнаружения объектов нового поколения с предварительно обученными моделями YOLO-NAS, предоставленными компанией Ultralytics. Эти модели разработаны для обеспечения высокой производительности как в плане скорости, так и точности. Выберите из различных вариантов, настроенных под ваши конкретные потребности: - -| Модель | mAP | Задержка (ms) | -|------------------|-------|---------------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -Каждый вариант модели разработан для достижения баланса между средней точностью обнаружения (mAP) и задержкой, помогая вам оптимизировать задачи по обнаружению объектов с точки зрения производительности и скорости. - -## Примеры использования - -Компания Ultralytics сделала интеграцию моделей YOLO-NAS в ваши приложения на Python максимально простой с помощью нашего пакета `ultralytics`. Пакет предоставляет удобный API на Python, чтобы упростить весь процесс. - -Ниже приведены примеры использования моделей YOLO-NAS с пакетом `ultralytics` для вывода результатов и их проверки: - -### Примеры вывода результатов и проверки - -В этом примере мы проверяем модель YOLO-NAS-s на наборе данных COCO8. - -!!! Example "Пример" - - В этом примере представлен простой код вывода результатов и проверки для YOLO-NAS. Для обработки результатов вывода см. режим [Predict](../modes/predict.md). Для использования YOLO-NAS с другими режимами см. [Val](../modes/val.md) и [Export](../modes/export.md). Пакет `ultralytics` для YOLO-NAS не поддерживает обучение. - - === "Python" - - Файлы предварительно обученных моделей PyTorch `*.pt` могут быть переданы в класс `NAS()` для создания экземпляра модели на Python: - - ```python - from ultralytics import NAS - - # Загрузка предварительно обученной модели YOLO-NAS-s на наборе данных COCO - model = NAS('yolo_nas_s.pt') - - # Вывод информации о модели (опционально) - model.info() - - # Проверка модели на примере набора данных COCO8 - results = model.val(data='coco8.yaml') - - # Вывод результатов работы модели YOLO-NAS-s на изображении 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Для прямого запуска моделей доступны следующие команды: - - ```bash - # Загрузка предварительно обученной модели YOLO-NAS-s на наборе данных COCO и проверка ее производительности на примере набора данных COCO8 - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # Загрузка предварительно обученной модели YOLO-NAS-s на наборе данных COCO и запуск вывода результатов на изображении 'bus.jpg' - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## Поддерживаемые задачи и режимы - -Мы предлагаем три варианта моделей YOLO-NAS: Small (s), Medium (m) и Large (l). Каждый вариант разработан для различных вычислительных и производственных потребностей: - -- **YOLO-NAS-s**: Оптимизирована для сред с ограниченными вычислительными ресурсами, где эффективность является ключевым фактором. -- **YOLO-NAS-m**: Предлагает сбалансированный подход, подходит для общих задач обнаружения объектов с более высокой точностью. -- **YOLO-NAS-l**: Адаптирована для сценариев, требующих максимальной точности, где вычислительные ресурсы менее ограничены. - -Ниже приведен подробный обзор каждой модели, включая ссылки на их предварительно обученные веса, задачи, которые они поддерживают, и их совместимость с различными режимами работы. - -| Тип модели | Предварительно обученные веса | Поддерживаемые задачи | Вывод результатов | Проверка | Обучение | Экспорт | -|------------|-----------------------------------------------------------------------------------------------|--------------------------------------------|-------------------|----------|----------|---------| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## Цитирование и благодарности - -Если вы используете YOLO-NAS в своей научно-исследовательской или разработочной работе, пожалуйста, ссылайтесь на SuperGradients: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -Мы выражаем благодарность команде [SuperGradients](https://github.com/Deci-AI/super-gradients/) компании Deci AI за их усилия в создании и поддержке этого ценного ресурса для компьютерного зрения. Мы считаем, что YOLO-NAS со своей инновационной архитектурой и улучшенными возможностями обнаружения объектов станет важным инструментом как для разработчиков, так и для исследователей. - -*keywords: YOLO-NAS, Deci AI, обнаружение объектов, глубокое обучение, поиск нейроархитектур, Ultralytics Python API, модель YOLO, SuperGradients, предварительно обученные модели, базовый блок, дружественный квантованию, продвинутые схемы тренировки, пост-тренировочное квантование, оптимизация AutoNAC, COCO, Objects365, Roboflow 100* diff --git a/docs/ru/models/yolov3.md b/docs/ru/models/yolov3.md deleted file mode 100644 index 53d2fc0cef3..00000000000 --- a/docs/ru/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: Получите обзор моделей YOLOv3, YOLOv3-Ultralytics и YOLOv3u. Узнайте о их основных функциях, использовании и поддерживаемых задачах для обнаружения объектов. -keywords: YOLOv3, YOLOv3-Ultralytics, YOLOv3u, Обнаружение объектов, Вывод, Обучение, Ultralytics ---- - -# YOLOv3, YOLOv3-Ultralytics и YOLOv3u - -## Обзор - -Этот документ представляет обзор трех тесно связанных моделей обнаружения объектов: [YOLOv3](https://pjreddie.com/darknet/yolo/), [YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3) и [YOLOv3u](https://github.com/ultralytics/ultralytics). - -1. **YOLOv3:** Это третья версия алгоритма обнаружения объектов You Only Look Once (YOLO). Изначально разработанная Джозефом Редмоном (Joseph Redmon), YOLOv3 улучшила своих предшественников, внедрив такие функции, как многошкальные предсказания и три различных размера ядер детекции. - -2. **YOLOv3-Ultralytics:** Это имплементация модели YOLOv3 от Ultralytics. Она воспроизводит оригинальную архитектуру YOLOv3 и предлагает дополнительные возможности, такие как поддержка большего числа предварительно обученных моделей и более простые варианты настройки. - -3. **YOLOv3u:** Это обновленная версия YOLOv3-Ultralytics, которая включает в себя разделение головы на свободные от привязки якоря и объектности, используемое в моделях YOLOv8. YOLOv3u имеет такую же архитектуру основного модуля и модуля "шеи", как YOLOv3, но с обновленной головой детекции из YOLOv8. - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## Основные характеристики - -- **YOLOv3:** Внедрение трех масштабов детекции позволило использовать три разных размера ядер детекции: 13x13, 26x26 и 52x52. Это значительно улучшило точность обнаружения объектов различных размеров. Кроме того, YOLOv3 добавила такие функции, как множественные предсказания для каждого ограничивающего прямоугольника и более высококачественную сеть экстрактора признаков. - -- **YOLOv3-Ultralytics:** Имплементация YOLOv3 от Ultralytics обеспечивает такую же производительность, как у оригинальной модели, но дополнительно поддерживает больше предварительно обученных моделей, дополнительные методы обучения и более простые варианты настройки. Это делает ее более гибкой и удобной для практического применения. - -- **YOLOv3u:** В этой обновленной модели использовано разделение головы на свободные от привязки якоря и объектности из YOLOv8. Путем устранения необходимости в предопределенных координатах привязки и оценках объектности эта архитектура головы детекции способна улучшить способность модели обнаруживать объекты различных размеров и форм. Это делает YOLOv3u более устойчивой и точной для задач обнаружения объектов. - -## Поддерживаемые задачи и режимы - -Серия YOLOv3, включая YOLOv3, YOLOv3-Ultralytics и YOLOv3u, специально разработана для задач обнаружения объектов. Эти модели заслужили признание своей эффективности в различных сценариях реального мира, обеспечивая баланс между точностью и скоростью. Каждый вариант предлагает уникальные функции и оптимизации, что делает их подходящими для широкого спектра приложений. - -Все три модели поддерживают полный набор режимов, обеспечивая гибкость на разных этапах развертывания и разработки моделей. Эти режимы включают [Вывод](../modes/predict.md), [Проверку](../modes/val.md), [Обучение](../modes/train.md) и [Экспорт](../modes/export.md), что позволяет пользователям полноценно использовать эти модели для эффективного обнаружения объектов. - -| Тип модели | Поддерживаемые задачи | Вывод | Проверка | Обучение | Экспорт | -|--------------------|--------------------------------------------|-------|----------|----------|---------| -| YOLOv3 | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Эта таблица предоставляет краткий обзор возможностей каждого варианта модели YOLOv3, подчеркивая их гибкость и пригодность для выполнения различных задач и операционных режимов в потоке обнаружения объектов. - -## Примеры использования - -Этот пример предоставляет простые примеры обучения и вывода с использованием YOLOv3. Полную документацию об этих и других [режимах](../modes/index.md) см. на страницах документации по [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) и [Export](../modes/export.md). - -!!! Example "Пример" - - === "Python" - - В Python можно передавать предварительно обученные модели `*.pt` PyTorch и конфигурационные файлы `*.yaml` в класс `YOLO()`, чтобы создать экземпляр модели: - - ```python - from ultralytics import YOLO - - # Загрузка предварительно обученной модели YOLOv3n на наборе данных COCO - model = YOLO('yolov3n.pt') - - # Отображение информации о модели (необязательно) - model.info() - - # Обучение модели на примере набора данных COCO8 в течение 100 эпох - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Выполнение вывода модели YOLOv3n на изображении 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Имеются команды интерфейса командной строки для прямого запуска моделей: - - ```bash - # Загрузить предварительно обученную модель YOLOv3n на наборе данных COCO и обучить ее на примере набора данных COCO8 в течение 100 эпох - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Загрузить предварительно обученную модель YOLOv3n на наборе данных COCO и выполнить вывод на изображении 'bus.jpg' - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## Цитаты и благодарности - -Если вы используете YOLOv3 в своем исследовании, пожалуйста, цитируйте оригинальные статьи о YOLO и репозиторий Ultralytics YOLOv3: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -Благодарим Джозефа Редмона и Али Фархади за разработку оригинальной модели YOLOv3. diff --git a/docs/ru/models/yolov4.md b/docs/ru/models/yolov4.md deleted file mode 100644 index b44b6d07653..00000000000 --- a/docs/ru/models/yolov4.md +++ /dev/null @@ -1,71 +0,0 @@ ---- -comments: true -description: Изучите наш подробный руководство по YOLOv4 - передовому обнаружителю объектов в режиме реального времени. Понимание его архитектурных особенностей, инновационных функций и примеров применения. -keywords: ultralytics, YOLOv4, обнаружение объектов, нейронные сети, обнаружение в реальном времени, детектор объектов, машинное обучение ---- - -# YOLOv4: Быстрое и точное обнаружение объектов - -Добро пожаловать на страницу документации Ultralytics по YOLOv4 - передовому обнаружителю объектов в режиме реального времени, созданному в 2020 году Алексеем Бочковским на [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). YOLOv4 разработан для обеспечения оптимального баланса между скоростью и точностью, что делает его отличным выбором для многих приложений. - -![Диаграмма архитектуры YOLOv4](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**Диаграмма архитектуры YOLOv4**. Показана сложная сетевая архитектура YOLOv4, включая компоненты основной части, шеи и головы, а также их взаимосвязанные слои для оптимального обнаружения объектов в режиме реального времени. - -## Введение - -YOLOv4 означает You Only Look Once, версия 4. Эта модель обнаружения объектов в реальном времени была разработана для преодоления ограничений предыдущих версий YOLO, таких как [YOLOv3](yolov3.md) и других моделей обнаружения объектов. В отличие от других детекторов объектов на основе сверточных нейронных сетей (CNN), YOLOv4 применим как для систем рекомендаций, так и для автономного управления процессами и уменьшения человеческого ввода. Благодаря работе на обычных графических процессорах (GPU), YOLOv4 может использоваться массово по доступной цене и разработан для работы в реальном времени на обычном GPU, требуя для обучения лишь одного такого GPU. - -## Архитектура - -YOLOv4 использует несколько инновационных функций, которые работают вместе для оптимизации его производительности. Среди них встроенные связи с резильтатами (WRC), частичные соединения между этапами (CSP), нормализация на мини-пакетах (CmBN), самоадаптивное обучение (SAT), активация Mish, аугментация данных Mosaic, регуляризация DropBlock и функция потерь CIoU. Эти функции объединены для достижения передовых результатов. - -Типичный детектор объектов состоит из нескольких частей, включая входные данные, основную часть, шейку и голову. Основа YOLOv4 предварительно обучена на наборе данных ImageNet и используется для предсказания классов и ограничивающих рамок объектов. Основа может быть представлена несколькими моделями, включая VGG, ResNet, ResNeXt или DenseNet. Часть шейки детектора используется для сбора карт признаков с разных этапов и обычно включает несколько путей снизу вверх и несколько путей сверху вниз. Головная часть используется для окончательного обнаружения и классификации объектов. - -## Bag of Freebies - -YOLOv4 также использует методы, известные как «bag of freebies», которые улучшают точность модели во время обучения без увеличения стоимости вывода. Аугментация данных - это общая техника "bag of freebies", используемая в обнаружении объектов, которая увеличивает изменчивость входных изображений для повышения устойчивости модели. Некоторые примеры аугментации данных включают фотометрические и геометрические искажения. Эти техники помогают модели лучше обобщаться для различных типов изображений. - -## Особенности и производительность - -YOLOv4 разработан для оптимальной скорости и точности обнаружения объектов. Архитектура YOLOv4 включает в себя CSPDarknet53 в качестве основы, PANet в качестве шейки и YOLOv3 в качестве головы. Это позволяет YOLOv4 выполнять обнаружение объектов с впечатляющей скоростью, что делает его подходящим для приложений в реальном времени. YOLOv4 также отличается точностью и достигает передовых результатов в тестовых бенчмарках для обнаружения объектов. - -## Примеры использования - -На момент написания данного документа Ultralytics пока не поддерживает модели YOLOv4. Поэтому все пользователи, заинтересованные в использовании YOLOv4, должны обращаться напрямую к репозиторию YOLOv4 на GitHub для инструкций по установке и использованию. - -Вот краткий обзор типичных шагов, которые вы можете предпринять для использования YOLOv4: - -1. Посетите репозиторий YOLOv4 на GitHub: [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet). - -2. Следуйте инструкциям, предоставленным в файле README для установки. Это обычно включает клонирование репозитория, установку необходимых зависимостей и настройку необходимых переменных среды. - -3. После завершения установки вы можете обучать и использовать модель в соответствии с инструкциями использования, предоставленными в репозитории. Обычно это включает подготовку ваших данных, настройку параметров модели, обучение модели и затем использование обученной модели для выполнения обнаружения объектов. - -Обратите внимание, что конкретные шаги могут отличаться в зависимости от вашего конкретного случая использования и текущего состояния репозитория YOLOv4. Поэтому настоятельно рекомендуется обращаться непосредственно к инструкциям, предоставленным в репозитории YOLOv4 на GitHub. - -Приносим извинения за возможные неудобства, и мы постараемся обновить этот документ с примерами использования для Ultralytics, как только поддержка YOLOv4 будет реализована. - -## Заключение - -YOLOv4 - это мощная и эффективная модель обнаружения объектов, которая находит баланс между скоростью и точностью. Благодаря уникальным функциям и методам "bag of freebies" во время обучения, она превосходно справляется с задачами обнаружения объектов в реальном времени. YOLOv4 может быть обучена и использована всеми, у кого есть обычный GPU, что делает ее доступной и пригодной для широкого круга применений. - -## Цитирование и благодарности - -Мы хотели бы выразить благодарность авторам YOLOv4 за их значительный вклад в область обнаружения объектов в режиме реального времени: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -Оригинальная статья YOLOv4 доступна на [arXiv](https://arxiv.org/abs/2004.10934). Авторы сделали свою работу общедоступной, и код доступен на [GitHub](https://github.com/AlexeyAB/darknet). Мы ценим их усилия в развитии области и доступности их работы для широкого сообщества. diff --git a/docs/ru/models/yolov5.md b/docs/ru/models/yolov5.md deleted file mode 100644 index f170d56e004..00000000000 --- a/docs/ru/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: Познакомьтесь с YOLOv5u, улучшенной версией модели YOLOv5 с улучшенным компромиссом между точностью и скоростью и множеством готовых моделей для различных задач обнаружения объектов. -keywords: YOLOv5u, обнаружение объектов, готовые модели, Ultralytics, Вывод, Проверка, YOLOv5, YOLOv8, без якорей, без учета объектности, реальное время работы, машинное обучение ---- - -# YOLOv5 - -## Обзор - -YOLOv5u представляет собой прогресс в методологиях обнаружения объектов. Исходя из основной архитектуры модели [YOLOv5](https://github.com/ultralytics/yolov5), разработанной компанией Ultralytics, YOLOv5u интегрирует разделение головы без якорей и объектности, функциональность, ранее представленную в моделях [YOLOv8](yolov8.md). Эта адаптация улучшает архитектуру модели, что приводит к улучшенному компромиссу между точностью и скоростью в задачах обнаружения объектов. Учитывая эмпирические результаты и полученные характеристики, YOLOv5u предлагает эффективную альтернативу для тех, кто ищет надежные решения как в научных исследованиях, так и в практических приложениях. - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## Основные возможности - -- **Разделение головы без якорей**: Традиционные модели обнаружения объектов полагаются на заранее определенные привязочные рамки для предсказания расположения объектов. Однако YOLOv5u модернизирует этот подход. Принимая безякорную голову, она обеспечивает более гибкий и адаптивный механизм обнаружения, что в итоге повышает производительность в различных сценариях. - -- **Оптимизированный компромисс между точностью и скоростью**: Скорость и точность часто движутся в противоположных направлениях. Но YOLOv5u вызывает этот компромисс. Она предлагает настроенный баланс, обеспечивая обнаружение в режиме реального времени без ущерба для точности. Эта функция особенно ценна для приложений, которым требуются быстрые ответы, таких как автономные транспортные средства, робототехника и аналитика видеозаписей в режиме реального времени. - -- **Разнообразие готовых моделей**: Понимая, что различные задачи требуют разного инструментария, YOLOv5u предлагает множество готовых моделей. Независимо от того, придерживаетесь ли вы вывода, проверки или обучения, вас ожидает модель, разработанная специально под вашу уникальную задачу. Это разнообразие гарантирует, что вы не используете универсальное решение, а модель, специально настроенную для вашего уникального вызова. - -## Поддерживаемые задачи и режимы - -Модели YOLOv5u с различными предварительно обученными весами превосходят в задачах [Обнаружение объектов](../tasks/detect.md). Они поддерживают широкий спектр режимов работы, что делает их подходящими для разных приложений, от разработки до развертывания. - -| Тип модели | Предварительно обученные веса | Задача | Вывод | Проверка | Обучение | Экспорт | -|------------|-----------------------------------------------------------------------------------------------------------------------------|--------------------------------------------|-------|----------|----------|---------| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -В этой таблице предоставлена подробная информация о вариантах моделей YOLOv5u, основных задачах обнаружения объектов и поддержке различных операционных режимов, таких как [Вывод](../modes/predict.md), [Проверка](../modes/val.md), [Обучение](../modes/train.md) и [Экспорт](../modes/export.md). Эта всесторонняя поддержка позволяет пользователям полностью использовать возможности моделей YOLOv5u в широком спектре задач обнаружения объектов. - -## Показатели производительности - -!!! Производительность - - === "Обнаружение" - - См. [Документацию по обнаружению](https://docs.ultralytics.com/tasks/detect/) для примеров использования этих моделей, обученных на [COCO](https://docs.ultralytics.com/datasets/detect/coco/), которая включает 80 предварительно обученных классов. - - | Модель | YAML | размер
(пиксели) | mAPval
50-95 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(М) | FLOPs
(Б) | - |-------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|-------------------------|----------------------|--------------------------------|-------------------------------------|----------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43.0 | 120.7 | 1.27 | 9.1 | 24.0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49.0 | 233.9 | 1.86 | 25.1 | 64.2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52.2 | 408.4 | 2.50 | 53.2 | 135.0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53.2 | 763.2 | 3.81 | 97.2 | 246.4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42.1 | 211.0 | 1.83 | 4.3 | 7.8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48.6 | 422.6 | 2.34 | 15.3 | 24.6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53.6 | 810.9 | 4.36 | 41.2 | 65.7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55.7 | 1470.9 | 5.47 | 86.1 | 137.4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56.8 | 2436.5 | 8.98 | 155.4 | 250.7 | - -## Примеры использования - -В этом примере приведены простые примеры обучения и вывода моделей YOLOv5. Для получения полной документации по этим и другим [режимам работы](../modes/index.md) см. страницы документации по [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) и [Export](../modes/export.md). - -!!! Example "Пример" - - === "Python" - - Предварительно обученные модели PyTorch `*.pt` и файлы конфигурации `*.yaml` можно передать классу `YOLO()` для создания экземпляра модели на Python: - - ```python - from ultralytics import YOLO - - # Загрузите предварительно обученную модель YOLOv5n на COCO - model = YOLO('yolov5n.pt') - - # Отобразить информацию о модели (опционально) - model.info() - - # Обучение модели на примере набора данных на основе COCO8 в течение 100 эпох - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Выполнение вывода с моделью YOLOv5n на изображении 'bus.jpg' - results = model('путь/к/файлу/bus.jpg') - ``` - - === "CLI" - - Доступны команды CLI для непосредственного выполнения моделей: - - ```bash - # Загрузка предварительно обученной модели YOLOv5n на COCO и обучение на примере набора данных на основе COCO8 в течение 100 эпох - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Загрузка предварительно обученной модели YOLOv5n на COCO и выполнение вывода на изображении 'bus.jpg' - yolo predict model=yolov5n.pt source=путь/к/файлу/bus.jpg - ``` - -## Цитирование и благодарности - -Если вы используете YOLOv5 или YOLOv5u в своих исследованиях, пожалуйста, ссылайтесь на репозиторий Ultralytics YOLOv5 следующим образом: - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -Пожалуйста, обратите внимание, что модели YOLOv5 предоставляются под [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) и [Enterprise](https://ultralytics.com/license) лицензиями. diff --git a/docs/ru/models/yolov6.md b/docs/ru/models/yolov6.md deleted file mode 100644 index 34ac079b4b1..00000000000 --- a/docs/ru/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: Изучите Meituan YOLOv6 - современную модель обнаружения объектов, отличающуюся балансом между скоростью и точностью. Подробнее о функциях, предварительно обученных моделях и использовании Python. -keywords: Meituan YOLOv6, обнаружение объектов, Ultralytics, документация YOLOv6, двустороннее объединение, тренировка с использованием якорей, предварительно обученные модели, приложения в реальном времени ---- - -# Meituan YOLOv6 - -## Обзор - -[Meituan](https://about.meituan.com/) YOLOv6 - это передовая модель обнаружения объектов, которая отлично сочетает в себе скорость и точность, что делает ее популярным выбором для приложений в реальном времени. Эта модель включает несколько значимых улучшений в своей архитектуре и схеме обучения, включая внедрение модуля двустороннего объединения (BiC), стратегию тренировки с использованием якорей (AAT) и улучшенный дизайн базовой и верхней частей для достижения передовой точности на наборе данных COCO. - -![Meituan YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![Изображение примера модели](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**Обзор YOLOv6.** Диаграмма архитектуры модели, показывающая переработанные компоненты сети и стратегии тренировки, которые приводят к значительному улучшению производительности. (a) Верхняя часть YOLOv6 (показаны N и S). Обратите внимание, что для M/L блок RepBlocks заменен на CSPStackRep. (b) Структура модуля BiC. (c) Блок SimCSPSPPF block. ([исходник](https://arxiv.org/pdf/2301.05586.pdf)). - -### Основные функции - -- **Модуль двустороннего объединения (BiC):** YOLOv6 включает модуль BiC в верхнюю часть детектора, улучшая сигналы локализации и обеспечивая прирост производительности при минимальном снижении скорости. -- **Стратегия тренировки с использованием якорей (AAT):** Эта модель предлагает AAT, чтобы воспользоваться преимуществами как якорных, так и бесконтурных парадигм без ущерба для эффективности вывода. -- **Улучшенный дизайн базовой и верхней частей:** Путем расширения YOLOv6 за счет добавления еще одной стадии в базовую и верхнюю часть модели достигается передовая производительность на наборе данных COCO при высоком разрешении входных изображений. -- **Стратегия самостоятельной стабилизации:** Внедряется новая стратегия самостоятельной стабилизации для повышения производительности меньших моделей YOLOv6, улучшая вспомогательное регрессионное ветвление во время тренировки и удаляя его во время вывода, чтобы избежать заметного снижения скорости. - -## Метрики производительности - -YOLOv6 предоставляет несколько предварительно обученных моделей различных масштабов: - -- YOLOv6-N: 37.5% AP на наборе данных COCO val2017 при 1187 кадрах в секунду (FPS) с использованием графического процессора NVIDIA Tesla T4. -- YOLOv6-S: 45.0% AP при 484 FPS. -- YOLOv6-M: 50.0% AP при 226 FPS. -- YOLOv6-L: 52.8% AP при 116 FPS. -- YOLOv6-L6: Передовая точность в реальном времени. - -YOLOv6 также предоставляет квантованные модели для разных точностей и модели, оптимизированные для мобильных платформ. - -## Примеры использования - -В этом примере приведены простые примеры тренировки и вывода с использованием YOLOv6. Полная документация по этим и другим [режимам](../modes/index.md) доступна на страницах документации [Predict](../modes/predict.md), [Train](../modes/train.md), [Val](../modes/val.md) и [Export](../modes/export.md). - -!!! Example "Пример" - - === "Python" - - Модели PyTorch, предварительно обученные с помощью файлов `*.pt`, а также файлы конфигурации `*.yaml` могут быть переданы в класс `YOLO()` для создания экземпляра модели на Python: - - ```python - from ultralytics import YOLO - - # Построение модели YOLOv6n с нуля - model = YOLO('yolov6n.yaml') - - # Отображение информации о модели (по желанию) - model.info() - - # Тренировка модели на примере набора данных COCO8 в течение 100 эпох - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Вывод результатов с использованием модели YOLOv6n на изображении 'bus.jpg' - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - Доступны команды интерфейса командной строки для непосредственного запуска моделей: - - ```bash - # Построение модели YOLOv6n с нуля и тренировка на примере набора данных COCO8 в течение 100 эпох - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # Построение модели YOLOv6n с нуля и вывод результатов на изображении 'bus.jpg' - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## Поддерживаемые задачи и режимы - -Серия моделей YOLOv6 предлагает широкий выбор моделей с оптимизацией для [обнаружения объектов](../tasks/detect.md) высокой производительности. Они удовлетворяют различным вычислительным потребностям и требованиям точности, что делает их универсальными для широкого спектра приложений. - -| Тип модели | Предварительно обученные веса | Поддерживаемые задачи | Вывод результатов | Валидация | Тренировка | Экспорт | -|------------|-------------------------------|--------------------------------------------|-------------------|-----------|------------|---------| -| YOLOv6-N | `yolov6-n.pt` | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [Обнаружение объектов](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -Эта таблица предоставляет подробный обзор вариантов моделей YOLOv6, подчеркивая их возможности в задачах обнаружения объектов и совместимость с различными операционными режимами, такими как [Вывод результатов](../modes/predict.md), [Валидация](../modes/val.md), [Тренировка](../modes/train.md) и [Экспорт](../modes/export.md). Это обширная поддержка позволяет пользователям полностью использовать возможности моделей YOLOv6 в широком спектре сценариев обнаружения объектов. - -## Цитирования и благодарности - -Мы хотели бы выразить благодарность авторам исследования за их значительный вклад в области обнаружения объектов в реальном времени: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - - Исходную статью об YOLOv6 можно найти на [arXiv](https://arxiv.org/abs/2301.05586). Авторы сделали свою работу общедоступной, и код доступен на [GitHub](https://github.com/meituan/YOLOv6). Мы ценим их усилия в развитии этой области и доступности их работы для широкого сообщества. diff --git a/docs/ru/models/yolov7.md b/docs/ru/models/yolov7.md deleted file mode 100644 index 2d031721dbf..00000000000 --- a/docs/ru/models/yolov7.md +++ /dev/null @@ -1,65 +0,0 @@ ---- -comments: true -description: Исследуйте YOLOv7, реальный детектор объектов в реальном времени. Познакомьтесь с его высокой скоростью, впечатляющей точностью и уникальным фокусом на тренируемой оптимизации с использованием "мешка бесплатных улучшений". -keywords: YOLOv7, детектор объектов в реальном времени, новейший, Ultralytics, набор данных MS COCO, репараметризация модели, динамическое присвоение меток, расширенное масштабирование, компаунд-масштабирование ---- - -# YOLOv7: Тренируемый "мешок бесплатных улучшений" - -YOLOv7 - это новейший детектор объектов в реальном времени, который превосходит все известные детекторы объектов по скорости и точности в диапазоне от 5 к/с до 160 к/с. У него самая высокая точность (56,8% AP) среди всех известных детекторов объектов в режиме реального времени со скоростью 30 к/с и выше на GPU V100. Кроме того, YOLOv7 превосходит другие детекторы объектов, такие как YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5 и многие другие, в скорости и точности. Модель обучается с нуля на наборе данных MS COCO без использования других наборов данных или предварительно обученных весов. Исходный код для YOLOv7 доступен на GitHub. - -![Сравнение YOLOv7 с новейшими детекторами объектов](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**Сравнение новейших детекторов объектов.** Из результатов в Таблице 2 мы знаем, что предложенный метод обеспечивает лучшее соотношение скорость-точность в целом. Если сравнивать YOLOv7-tiny-SiLU с YOLOv5-N (r6.1), наш метод быстрее на 127 к/с и точнее на 10,7% по AP. Кроме того, YOLOv7 имеет точность AP 51,4% при скорости кадров 161 к/с, в то время как PPYOLOE-L с такой же точностью имеет только скорость кадров 78 к/с. Что касается использования параметров, YOLOv7 сокращает их на 41% по сравнению с PPYOLOE-L. Если сравнить YOLOv7-X с 114 к/с скоростью вывода с YOLOv5-L (r6.1) с 99 к/с скоростью вывода, YOLOv7-X может повысить AP на 3,9%. Если сравнить YOLOv7-X с YOLOv5-X (r6.1) с похожими масштабами, скорость вывода YOLOv7-X на 31 к/с выше. Кроме того, по количеству параметров и вычислений YOLOv7-X сокращает параметры на 22% и вычисления на 8% по сравнению с YOLOv5-X (r6.1), но повышает AP на 2,2% ([Источник](https://arxiv.org/pdf/2207.02696.pdf)). - -## Обзор - -Детектирование объектов в реальном времени - это важный компонент многих систем компьютерного зрения, включая многотаргетное отслеживание, автономное вождение, робототехнику и анализ медицинских изображений. В последние годы разработка детекторов объектов в реальном времени сосредоточена на проектировании эффективных архитектур и повышении скорости вывода на различных ЦП, ГПУ и нейропроцессорах (NPUs). YOLOv7 поддерживает как мобильные графические процессоры (GPU), так и устройства GPU, от периферии до облачных вычислений. - -В отличие от традиционных детекторов объектов в реальном времени, которые сосредоточены на оптимизации архитектуры, YOLOv7 вводит концепцию оптимизации процесса обучения. Это включает модули и методы оптимизации, разработанные для повышения точности детектирования объектов без увеличения стоимости вывода, известного как "тренируемый мешок бесплатных улучшений". - -## Основные функции - -YOLOv7 предлагает несколько ключевых функций: - -1. **Репараметризация модели**: YOLOv7 предлагает запланированную переапарамеризацию модели, которая является стратегией, применимой к слоям в разных сетях с концепцией пути градиентного распространения. - -2. **Динамическое присвоение меток**: Обучение модели с несколькими выходными слоями представляет новую проблему: "Как назначить динамические цели для выходов разных ветвей?" Для решения этой проблемы YOLOv7 предлагает новый метод присвоения меток, называемый грубо-тонким присвоением меток с управлением ведущей ветви. - -3. **Расширенное и компаунд-масштабирование**: YOLOv7 предлагает методы "расширения" и "компаунд-масштабирования" для детектора объектов в реальном времени, которые эффективно используют параметры и вычисления. - -4. **Эффективность**: Метод, предложенный YOLOv7, может эффективно сокращать примерно на 40% количество параметров и на 50% вычислений известного детектора объектов в реальном времени, обеспечивая более быструю скорость вывода и более высокую точность детектирования. - -## Примеры использования - -На момент написания данного документа Ultralytics в настоящее время не поддерживает модели YOLOv7. Поэтому все пользователи, заинтересованные в использовании YOLOv7, должны обратиться непосредственно к репозиторию YOLOv7 на GitHub для инструкций по установке и использованию. - -Вот краткий обзор типичных шагов, которые могут потребоваться для использования YOLOv7: - -1. Посетите репозиторий YOLOv7 на GitHub: [https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7). - -2. Следуйте инструкциям, предоставленным в файле README по установке. Обычно это включает клонирование репозитория, установку необходимых зависимостей и настройку необходимых переменных среды. - -3. После завершения установки вы можете обучать и использовать модель в соответствии с инструкциями по использованию, предоставленными в репозитории. Обычно это включает подготовку набора данных, настройку параметров модели, обучение модели, а затем использование обученной модели для выполнения детектирования объектов. - -Обратите внимание, что конкретные шаги могут варьироваться в зависимости от вашего конкретного случая использования и текущего состояния репозитория YOLOv7. Поэтому настоятельно рекомендуется обратиться непосредственно к инструкциям, предоставленным в репозитории YOLOv7 на GitHub. - -Мы сожалеем обо всех неудобствах, которые это может вызвать, и будем стараться обновлять этот документ с примерами использования для Ultralytics, как только будет реализована поддержка YOLOv7. - -## Цитирования и благодарности - -Мы хотели бы выразить признательность авторам YOLOv7 за их значительный вклад в области детектирования объектов в реальном времени: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -Исходную статью YOLOv7 можно найти на [arXiv](https://arxiv.org/pdf/2207.02696.pdf). Авторы опубликовали свою работу публично, и код доступен на [GitHub](https://github.com/WongKinYiu/yolov7). Мы ценим их усилия в совершенствовании этой области и доступности своей работы для широкой общественности. diff --git a/docs/ru/models/yolov8.md b/docs/ru/models/yolov8.md deleted file mode 100644 index a83a4718068..00000000000 --- a/docs/ru/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: Изучите захватывающие возможности YOLOv8, последней версии нашего детектора объектов в реальном времени! Узнайте, как передовая архитектура, предварительно обученные модели и оптимальное сочетание точности и скорости делают YOLOv8 идеальным выбором для ваших задач по обнаружению объектов. -keywords: YOLOv8, Ultralytics, детектор объектов в реальном времени, предварительно обученные модели, документация, обнаружение объектов, серия YOLO, передовая архитектура, точность, скорость ---- - -# YOLOv8 - -## Обзор - -YOLOv8 - это последняя версия в серии детекторов объектов в реальном времени YOLO, обеспечивающая передовую производительность в терминах точности и скорости. Основываясь на достижениях предыдущих версий YOLO, YOLOv8 вводит новые возможности и оптимизации, делая его идеальным выбором для различных задач по обнаружению объектов в широком спектре приложений. - -![Ultralytics YOLOv8](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## Основные возможности - -- **Передовые архитектуры основы и шеи:** YOLOv8 использует передовые архитектуры основы и шеи, что приводит к улучшенному извлечению признаков и производительности обнаружения объектов. -- **Ключевая голова Ultralytics без якорей:** YOLOv8 применяет ключевую голову Ultralytics без якорей, что способствует более точному обнаружению и более эффективному процессу обнаружения по сравнению с якорными подходами. -- **Оптимальное сочетание точности и скорости:** С основным акцентом на поддержании оптимального баланса между точностью и скоростью, YOLOv8 подходит для задач обнаружения объектов в режиме реального времени в различных областях применения. -- **Разнообразие предварительно обученных моделей:** YOLOv8 предлагает ряд предварительно обученных моделей для различных задач и требований к производительности, что упрощает выбор подходящей модели для конкретного случая использования. - -## Поддерживаемые задачи и режимы работы - -Серия YOLOv8 предлагает разнообразные модели, каждая из которых специализирована для конкретных задач в компьютерном зрении. Эти модели разработаны для удовлетворения различных требований, от обнаружения объектов до более сложных задач, таких как сегментация экземпляров, определение позы/ключевых точек и классификация. - -Каждая вариация серии YOLOv8 оптимизирована для своей соответствующей задачи, обеспечивая высокую производительность и точность. Кроме того, эти модели совместимы со множеством режимов работы, включая [Вывод](../modes/predict.md), [Проверку](../modes/val.md), [Обучение](../modes/train.md) и [Экспорт](../modes/export.md), что облегчает их использование на различных этапах развертывания и разработки. - -| Модель | Названия файлов | Задача | Вывод | Проверка | Обучение | Экспорт | -|-------------|----------------------------------------------------------------------------------------------------------------|------------------------------------------------|-------|----------|----------|---------| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [Обнаружение](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [Сегментация экземпляров](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [Поза/ключевые точки](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [Классификация](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -Данная таблица предоставляет обзор вариантов моделей YOLOv8, подчеркивая их применимость к конкретным задачам и их совместимость с различными режимами работы, такими как Вывод, Проверка, Обучение и Экспорт. Это демонстрирует гибкость и надежность серии YOLOv8, что делает их подходящими для широкого спектра приложений в компьютерном зрении. - -## Показатели производительности - -!!! Производительность - - === "Обнаружение (COCO)" - - См. [Документацию по обнаружению](https://docs.ultralytics.com/tasks/detect/) для примеров использования этих моделей, обученных на [COCO](https://docs.ultralytics.com/datasets/detect/coco/), включающих 80 предварительно обученных классов. - - | Модель | размер
(пиксели) | mAPval
50-95 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(М) | FLOPs
(Б) | - | ------------------------------------------------------------------------------------ | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - - === "Обнаружение (Open Images V7)" - - См. [Документацию по обнаружению](https://docs.ultralytics.com/tasks/detect/) для примеров использования этих моделей, обученных на [Open Image V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/), включающих 600 предварительно обученных классов. - - | Модель | размер
(пиксели) | mAPval
50-95 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(М) | FLOPs
(Б) | - | ----------------------------------------------------------------------------------------- | --------------------- | -------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 | - - === "Сегментация (COCO)" - - См. [Документацию по сегментации](https://docs.ultralytics.com/tasks/segment/) для примеров использования этих моделей, обученных на [COCO](https://docs.ultralytics.com/datasets/segment/coco/), включающих 80 предварительно обученных классов. - - | Модель | размер
(пиксели) | mAPbox
50-95 | mAPmask
50-95 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(M) | FLOPs
(Б) | - | -------------------------------------------------------------------------------------------- | --------------------- | -------------------- | --------------------- | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - - === "Классификация (ImageNet)" - - См. [Документацию по классификации](https://docs.ultralytics.com/tasks/classify/) для примеров использования этих моделей, обученных на [ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/), включающих 1000 предварительно обученных классов. - - | Модель | размер
(пиксели) | acc
top1 | acc
top5 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(M) | FLOPs
(Б) при 640 | - | -------------------------------------------------------------------------------------------- | --------------------- | ---------------- | ---------------- | ------------------------------ | ----------------------------------- | ------------------ | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - - === "Поза (COCO)" - - См. [Документацию по оценке позы](https://docs.ultralytics.com/tasks/segment/) для примеров использования этих моделей, обученных на [COCO](https://docs.ultralytics.com/datasets/pose/coco/), включающих 1 предварительно обученный класс - 'person'. - - | Модель | размер
(пиксели) | mAPpose
50-95 | mAPpose
50 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(M) | FLOPs
(Б) | - | ---------------------------------------------------------------------------------------------------- | --------------------- | --------------------- | ------------------ | ------------------------------ | ----------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -## Примеры использования - -В этом примере представлены простые примеры обучения и вывода с использованием YOLOv8. Для полной документации об этих и других [режимах](../modes/index.md) см. страницы документации по [Предсказанию](../modes/predict.md), [Обучению](../modes/train.md), [Проверке](../modes/val.md) и [Экспорту](../modes/export.md). - -Обратите внимание, что приведенный ниже пример относится к моделям YOLOv8 для [Детекции](../tasks/detect.md) объектов. Для дополнительных поддерживаемых задач см. документацию по [Сегментации](../tasks/segment.md), [Классификации](../tasks/classify.md) и [Позе](../tasks/pose.md). - -!!! Example "Пример" - - === "Python" - - Предварительно обученные модели PyTorch `*.pt`, а также файлы конфигурации `*.yaml` могут быть переданы классу `YOLO()` для создания экземпляра модели на Python: - - ```python - from ultralytics import YOLO - - # Загрузите предварительно обученную модель YOLOv8n для COCO - model = YOLO('yolov8n.pt') - - # Отобразить информацию о модели (по желанию) - model.info() - - # Обучите модель на примере набора данных COCO8 в течение 100 эпох - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # Выполните вывод с использованием модели YOLOv8n на изображении 'bus.jpg' - results = model('путь/к/изображению/bus.jpg') - ``` - - === "CLI" - - Доступны команды CLI для прямого запуска моделей: - - ```bash - # Загрузите предварительно обученную модель YOLOv8n для COCO и обучите ее на примере набора данных COCO8 в течение 100 эпох - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # Загрузить предварительно обученную модель YOLOv8n для COCO и выполнить вывод на изображении 'bus.jpg' - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## Цитирование и благодарности - -Если вы используете модель YOLOv8 или любое другое программное обеспечение из этого репозитория в своей работе, пожалуйста, процитируйте его в следующем формате: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -Обратите внимание, что идентификатор цифрового объекта (DOI) находится на стадии получения и будет добавлен в цитирование, как только он станет доступным. Модели YOLOv8 предоставляются под лицензией [AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) и лицензией [Enterprise](https://ultralytics.com/license). diff --git a/docs/ru/modes/benchmark.md b/docs/ru/modes/benchmark.md deleted file mode 100644 index 564edb1b730..00000000000 --- a/docs/ru/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: true -description: Узнайте, как профилировать скорость и точность YOLOv8 в различных форматах экспорта; получите информацию о метриках mAP50-95, accuracy_top5 и др. -keywords: Ultralytics, YOLOv8, бенчмаркинг, профилирование скорости, профилирование точности, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, форматы экспорта YOLO ---- - -# Бенчмаркинг моделей с Ultralytics YOLO - -Экосистема и интеграции Ultralytics YOLO - -## Введение - -После того, как ваша модель обучена и валидирована, следующим логическим шагом является оценка ее производительности в различных реальных сценариях. Режим бенчмаркинга в Ultralytics YOLOv8 служит этой цели, предоставляя надежный инструментарий для оценки скорости и точности вашей модели в ряде форматов экспорта. - -## Почему бенчмаркинг критичен? - -- **Обоснованные решения:** Получение представления о компромиссе между скоростью и точностью. -- **Распределение ресурсов:** Понимание производительности различных форматов экспорта на разном оборудовании. -- **Оптимизация:** Выяснение, какой формат экспорта предлагает лучшую производительность для вашего конкретного случая. -- **Эффективность затрат:** Сделайте использование аппаратных ресурсов более эффективным на основе результатов бенчмаркинга. - -### Ключевые метрики в режиме бенчмаркинга - -- **mAP50-95:** Для детектирования объектов, сегментации и оценки поз. -- **accuracy_top5:** Для классификации изображений. -- **Время инференса:** Время, затрачиваемое на каждое изображение в миллисекундах. - -### Поддерживаемые форматы экспорта - -- **ONNX:** Для оптимальной производительности ЦП -- **TensorRT:** Для максимальной эффективности GPU -- **OpenVINO:** Для оптимизации под аппаратное обеспечение Intel -- **CoreML, TensorFlow SavedModel и другие:** Для разнообразных потребностей развертывания. - -!!! Tip "Совет" - - * Экспортируйте в ONNX или OpenVINO для ускорения процессора до 3 раз. - * Экспортируйте в TensorRT для ускорения GPU до 5 раз. - -## Примеры использования - -Запустите бенчмарк YOLOv8n на всех поддерживаемых форматах экспорта, включая ONNX, TensorRT и т. д. Смотрите раздел Аргументы ниже для полного списка параметров экспорта. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # Бенчмарк на GPU - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## Аргументы - -Аргументы, такие как `model`, `data`, `imgsz`, `half`, `device` и `verbose`, предоставляют пользователям гибкость для тонкой настройки бенчмарков под их конкретные потребности и сравнения производительности различных форматов экспорта с легкостью. - -| Ключ | Значение | Описание | -|-----------|----------|----------------------------------------------------------------------------------| -| `model` | `None` | путь к файлу модели, например yolov8n.pt, yolov8n.yaml | -| `data` | `None` | путь к YAML, ссылающемуся на набор данных для бенчмаркинга (под меткой `val`) | -| `imgsz` | `640` | размер изображения как скаляр или список (h, w), например (640, 480) | -| `half` | `False` | квантование FP16 | -| `int8` | `False` | квантование INT8 | -| `device` | `None` | устройство для запуска, например cuda device=0 или device=0,1,2,3 или device=cpu | -| `verbose` | `False` | не продолжать при ошибке (bool), или пороговое значение для `val` (float) | - -## Форматы экспорта - -Бенчмарки попытаются автоматически запустить для всех возможных форматов экспорта ниже. - -| Формат | Аргумент `format` | Модель | Метаданные | Аргументы | -|--------------------------------------------------------------------|-------------------|---------------------------|------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Смотрите полную информацию о `export` на странице [Экспорт](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ru/modes/export.md b/docs/ru/modes/export.md deleted file mode 100644 index 6351f21afb7..00000000000 --- a/docs/ru/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: Пошаговое руководство по экспорту ваших моделей YOLOv8 в различные форматы, такие как ONNX, TensorRT, CoreML и другие, для развертывания. Изучите сейчас!. -keywords: YOLO, YOLOv8, Ultralytics, Экспорт модели, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, экспорт модели ---- - -# Экспорт модели с Ultralytics YOLO - -Экосистема и интеграции Ultralytics YOLO - -## Введение - -Основная цель тренировки модели — её развертывание для реальных приложений. Режим экспорта в Ultralytics YOLOv8 предлагает множество вариантов для экспорта обученной модели в различные форматы, обеспечивая возможность развертывания на разных платформах и устройствах. Это исчерпывающее руководство направлено на то, чтобы провести вас через тонкости экспорта моделей, демонстрируя, как достичь максимальной совместимости и производительности. - -

-
- -
- Смотрите: Как экспортировать обученную пользовательскую модель Ultralytics YOLOv8 и запустить живое воспроизведение на веб-камере. -

- -## Почему стоит выбрать режим экспорта YOLOv8? - -- **Универсальность:** Экспорт в несколько форматов, включая ONNX, TensorRT, CoreML и другие. -- **Производительность:** Увеличение скорости на GPU до 5 раз с TensorRT и ускорение на CPU до 3 раз с ONNX или OpenVINO. -- **Совместимость:** Сделайте вашу модель универсально развертываемой в различных аппаратных и программных средах. -- **Простота использования:** Простой интерфейс командной строки и Python API для быстрого и простого экспорта моделей. - -### Ключевые особенности режима экспорта - -Вот некоторые из ключевых функций: - -- **Экспорт одним кликом:** Простые команды для экспорта в разные форматы. -- **Пакетный экспорт:** Экспорт моделей, способных к пакетной обработке. -- **Оптимизированное предсказание:** Экспортированные модели оптимизированы для более быстрого предсказания. -- **Учебные видео:** Глубокие руководства и обучающие видео для гладкого опыта экспорта. - -!!! Tip "Совет" - - * Экспортируйте в ONNX или OpenVINO для ускорения CPU до 3 раз. - * Экспортируйте в TensorRT для увеличения скорости на GPU до 5 раз. - -## Примеры использования - -Экспорт модели YOLOv8n в другой формат, например ONNX или TensorRT. Смотрите раздел Аргументы ниже для полного списка аргументов экспорта. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n.pt') # загрузка официальной модели - model = YOLO('path/to/best.pt') # загрузка обученной пользовательской модели - - # Экспорт модели - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # экспорт официальной модели - yolo export model=path/to/best.pt format=onnx # экспорт обученной пользовательской модели - ``` - -## Аргументы - -Настройки экспорта моделей YOLO относятся к различным конфигурациям и опциям, используемым для сохранения или экспорта модели для использования в других средах или платформах. Эти настройки могут влиять на производительность модели, размер и совместимость с разными системами. Некоторые общие настройки экспорта YOLO включают формат экспортируемого файла модели (например, ONNX, TensorFlow SavedModel), устройство, на котором будет запущена модель (например, CPU, GPU), а также наличие дополнительных функций, таких как маски или несколько меток на коробку. Другие факторы, которые могут повлиять на процесс экспорта, включают конкретное задание, для которого используется модель, и требования или ограничения целевой среды или платформы. Важно тщательно рассмотреть и настроить эти параметры, чтобы убедиться, что экспортированная модель оптимизирована для предполагаемого использования и может быть эффективно использована в целевой среде. - -| Ключ | Значение | Описание | -|-------------|-----------------|---------------------------------------------------------------------------| -| `format` | `'torchscript'` | формат для экспорта | -| `imgsz` | `640` | размер изображения в виде скаляра или списка (h, w), например, (640, 480) | -| `keras` | `False` | использовать Keras для экспорта TF SavedModel | -| `optimize` | `False` | TorchScript: оптимизация для мобильных устройств | -| `half` | `False` | квантование FP16 | -| `int8` | `False` | квантование INT8 | -| `dynamic` | `False` | ONNX/TensorRT: динамические оси | -| `simplify` | `False` | ONNX/TensorRT: упрощение модели | -| `opset` | `None` | ONNX: версия набора операций (необязательный, по умолчанию последний) | -| `workspace` | `4` | TensorRT: размер рабочей области (ГБ) | -| `nms` | `False` | CoreML: добавление NMS | - -## Форматы экспорта - -Доступные форматы экспорта YOLOv8 указаны в таблице ниже. Вы можете экспортировать в любой формат, используя аргумент `format`, например, `format='onnx'` или `format='engine'`. - -| Формат | Аргумент `format` | Модель | Метаданные | Аргументы | -|--------------------------------------------------------------------|-------------------|---------------------------|------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/ru/modes/index.md b/docs/ru/modes/index.md deleted file mode 100644 index fe4987e1585..00000000000 --- a/docs/ru/modes/index.md +++ /dev/null @@ -1,73 +0,0 @@ ---- -comments: true -description: От обучения до отслеживания - используйте все возможности YOLOv8 от Ultralytics. Получите информацию и примеры для каждого поддерживаемого режима, включая проверку, экспорт и бенчмаркинг. -keywords: Ultralytics, YOLOv8, Машинное обучение, Обнаружение объектов, Обучение, Проверка, Предсказание, Экспорт, Отслеживание, Бенчмаркинг ---- - -# Режимы Ultralytics YOLOv8 - -Экосистема Ultralytics YOLO и интеграции - -## Введение - -Ultralytics YOLOv8 - это не просто еще одна модель обнаружения объектов; это многофункциональная платформа, предназначенная для охвата всего жизненного цикла моделей машинного обучения - от ввода данных и обучения модели до валидации, развертывания и отслеживания в реальном мире. Каждый режим служит определенной цели и разработан, чтобы предложить вам гибкость и эффективность, необходимую для различных задач и сценариев использования. - -

-
- -
- Смотрите: Руководство по режимам Ultralytics: Обучение, Проверка, Предсказание, Экспорт и Бенчмаркинг. -

- -### Обзор режимов - -Понимание различных **режимов**, которые поддерживает Ultralytics YOLOv8, критически важно для эффективного использования ваших моделей: - -- **Режим обучения (Train mode)**: Настройте вашу модель на пользовательские или предзагруженные наборы данных. -- **Режим проверки (Val mode)**: Контрольная точка после обучения для валидации производительности модели. -- **Режим предсказания (Predict mode)**: Раскройте предсказательную мощь вашей модели на данных из реального мира. -- **Режим экспорта (Export mode)**: Подготовьте вашу модель к развертыванию в различных форматах. -- **Режим отслеживания (Track mode)**: Расширьте вашу модель обнаружения объектов до приложений отслеживания в реальном времени. -- **Режим бенчмаркинга (Benchmark mode)**: Проанализируйте скорость и точность вашей модели в разнообразных средах развертывания. - -Это исчерпывающее руководство направлено на то, чтобы дать вам обзор и практические сведения о каждом режиме, помогая вам использовать полный потенциал YOLOv8. - -## [Обучение (Train)](train.md) - -Режим обучения используется для обучения модели YOLOv8 на пользовательском наборе данных. В этом режиме модель обучается с использованием указанного набора данных и гиперпараметров. Процесс обучения включает в себя оптимизацию параметров модели, чтобы она могла точно предсказывать классы и местоположения объектов на изображении. - -[Примеры обучения](train.md){ .md-button } - -## [Проверка (Val)](val.md) - -Режим проверки используется для валидации модели YOLOv8 после ее обучения. В этом режиме модель оценивается на наборе данных для валидации, чтобы измерить ее точность и способность к обобщению. Этот режим может быть использован для настройки гиперпараметров модели с целью улучшения ее производительности. - -[Примеры проверки](val.md){ .md-button } - -## [Предсказание (Predict)](predict.md) - -Режим предсказания используется для выполнения предсказаний с использованием обученной модели YOLOv8 на новых изображениях или видео. В этом режиме модель загружается из файла контрольной точки, и пользователь может предоставить изображения или видео для выполнения вывода. Модель предсказывает классы и местоположения объектов во входных изображениях или видео. - -[Примеры предсказания](predict.md){ .md-button } - -## [Экспорт (Export)](export.md) - -Режим экспорта используется для экспортирования модели YOLOv8 в формат, который может быть использован для развертывания. В этом режиме модель преобразуется в формат, который может быть использован другими программными приложениями или аппаратными устройствами. Этот режим полезен при развертывании модели в производственной среде. - -[Примеры экспорта](export.md){ .md-button } - -## [Отслеживание (Track)](track.md) - -Режим отслеживания используется для отслеживания объектов в реальном времени с использованием модели YOLOv8. В этом режиме модель загружается из файла контрольной точки, и пользователь может предоставить прямую видеотрансляцию для выполнения отслеживания объектов в реальном времени. Этот режим полезен для приложений, таких как системы видеонаблюдения или беспилотные автомобили. - -[Примеры отслеживания](track.md){ .md-button } - -## [Бенчмаркинг (Benchmark)](benchmark.md) - -Режим бенчмаркинга используется для профилирования скорости и точности различных форматов экспорта для YOLOv8. Бенчмарки предоставляют информацию о размере экспортируемого формата, его метриках `mAP50-95` (для обнаружения объектов, сегментации и позы) или метриках `accuracy_top5` (для классификации), а также время вывода в миллисекундах на изображение для различных форматов экспорта, таких как ONNX, OpenVINO, TensorRT и других. Эта информация может помочь пользователям выбрать оптимальный формат экспорта для их конкретного сценария использования на основе их требований к скорости и точности. - -[Примеры бенчмаркинга](benchmark.md){ .md-button } diff --git a/docs/ru/modes/predict.md b/docs/ru/modes/predict.md deleted file mode 100644 index a8f5562447d..00000000000 --- a/docs/ru/modes/predict.md +++ /dev/null @@ -1,227 +0,0 @@ ---- -comments: true -description: Узнайте, как использовать режим предсказаний YOLOv8 для различных задач. Изучите различные источники вывода, такие как изображения, видео и форматы данных. -keywords: Ultralytics, YOLOv8, режим предсказаний, источники вывода, задачи предсказания, режим потоковой передачи, обработка изображений, обработка видео, машинное обучение, искусственный интеллект ---- - -# Прогнозирование моделью Ultralytics YOLO - -Экосистема и интеграции Ultralytics YOLO - -## Введение - -В мире машинного обучения и компьютерного зрения процесс извлечения информации из визуальных данных называется 'выводом' или 'предсказанием'. Ultralytics YOLOv8 предлагает мощную функцию, известную как **режим предсказаний**, который предназначен для высокопроизводительного реального времени вывода на широкий спектр источников данных. - -

-
- -
- Смотреть: Как извлечь результаты из модели Ultralytics YOLOv8 для пользовательских проектов. -

- -## Прикладные области - -| Производство | Спорт | Безопасность | -|:-------------------------------------------------------------------------------------------------------------------------------:|:-----------------------------------------------------------------------------------------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------:| -| ![Обнаружение автозапчастей](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1) | ![Обнаружение футболистов](https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442) | ![Обнаружение падения людей](https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43) | -| Обнаружение автозапчастей | Обнаружение футболистов | Обнаружение падения людей | - -## Почему стоит использовать Ultralytics YOLO для вывода? - -Вот почему вам следует рассмотреть режим предсказаний YOLOv8 для ваших различных потребностей в выводе: - -- **Универсальность:** Возможность делать выводы по изображениям, видео и даже потоковым трансляциям. -- **Производительность:** Разработан для обработки данных в реальном времени без потери точности. -- **Простота использования:** Интуитивно понятные интерфейсы Python и CLI для быстрого развертывания и тестирования. -- **Высокая настраиваемость:** Различные настройки и параметры для настройки поведения модели вывода в соответствии с вашими конкретными требованиями. - -### Ключевые особенности режима предсказаний - -Режим предсказаний YOLOv8 разработан, чтобы быть надежным и универсальным, он включает в себя: - -- **Совместимость с несколькими источниками данных:** независимо от того, представлены ли ваши данные в виде отдельных изображений, коллекции изображений, видеофайлов или потокового видео, режим предсказаний покрывает все это. -- **Режим потоковой передачи:** Используйте функцию потоковой передачи для создания генератора объектов `Results`, экономящего память. Активируйте это, установив `stream=True` в методе вызова предиктора. -- **Пакетная обработка:** Возможность обрабатывать несколько изображений или видеокадров за один пакет, что дополнительно ускоряет время вывода. -- **Дружественная интеграция:** Легко интегрируется с существующими данными и другими программными компонентами благодаря гибкому API. - -Модели Ultralytics YOLO возвращают либо список объектов `Results`, либо генератор объектов `Results` в Python, экономящий память, когда `stream=True` передается в модель во время вывода: - -!!! Example "Предсказание" - - === "Вернуть список с `stream=False`" - ```python - from ultralytics import YOLO - - # Загрузка модели - model = YOLO('yolov8n.pt') # предварительно обученная модель YOLOv8n - - # Пакетный вывод на список изображений - results = model(['im1.jpg', 'im2.jpg']) # вернуть список объектов Results - - # Обработка списка результатов - for result in results: - boxes = result.boxes # Объект Boxes для вывода bbox - masks = result.masks # Объект Masks для вывода масок сегментации - keypoints = result.keypoints # Объект Keypoints для вывода поз - probs = result.probs # Объект Probs для вывода вероятностей классификации - ``` - - === "Вернуть генератор с `stream=True`" - ```python - from ultralytics import YOLO - - # Загрузка модели - model = YOLO('yolov8n.pt') # предварительно обученная модель YOLOv8n - - # Пакетный вывод на список изображений - results = model(['im1.jpg', 'im2.jpg'], stream=True) # вернуть генератор объектов Results - - # Обработка генератора результатов - for result in results: - boxes = result.boxes # Объект Boxes для вывода bbox - masks = result.masks # Объект Masks для вывода масок сегментации - keypoints = result.keypoints # Объект Keypoints для вывода поз - probs = result.probs # Объект Probs для вывода вероятностей классификации - ``` - -## Источники вывода - -YOLOv8 может обрабатывать различные типы входных источников для вывода, как показано в таблице ниже. Источники включают статические изображения, видеопотоки и различные форматы данных. В таблице также указано, можно ли использовать каждый источник в режиме потоковой передачи с аргументом `stream=True` ✅. Режим потоковой передачи полезен для обработки видео или живых трансляций, так как создает генератор результатов вместо загрузки всех кадров в память. - -!!! Tip "Совет" - - Используйте `stream=True` для обработки длинных видеороликов или больших наборов данных для эффективного управления памятью. Когда `stream=False`, результаты для всех кадров или точек данных хранятся в памяти, что может быстро накопиться и вызвать ошибки переполнения памяти для больших входов. В отличие от этого, `stream=True` использует генератор, который хранит в памяти результаты только текущего кадра или точки данных, значительно сокращая потребление памяти и предотвращая проблемы с переполнением памяти. - -| Источник | Аргумент | Тип | Заметки | -|-----------------|--------------------------------------------|------------------|---------------------------------------------------------------------------------------------------------------| -| изображение | `'image.jpg'` | `str` или `Path` | Одиночный файл изображения. | -| URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | URL на изображение. | -| скриншот | `'screen'` | `str` | Снять скриншот. | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | Формат HWC с RGB каналами. | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | Формат HWC с BGR каналами `uint8 (0-255)`. | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | Формат HWC с BGR каналами `uint8 (0-255)`. | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | Формат BCHW с RGB каналами `float32 (0.0-1.0)`. | -| CSV | `'sources.csv'` | `str` или `Path` | CSV-файл, содержащий пути к изображениям, видео или каталогам. | -| видео ✅ | `'video.mp4'` | `str` или `Path` | Видеофайл в форматах, вроде MP4, AVI и т.д. | -| каталог ✅ | `'path/'` | `str` или `Path` | Путь к каталогу, содержащему изображения или видео. | -| глоб ✅ | `'path/*.jpg'` | `str` | Шаблон глоба для сопоставления нескольких файлов. Используйте символ `*` как подстановочный. | -| YouTube ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | URL на видео YouTube. | -| поток ✅ | `'rtsp://example.com/media.mp4'` | `str` | URL для потоковых протоколов, таких как RTSP, RTMP, TCP, или IP-адрес. | -| много-потоков ✅ | `'list.streams'` | `str` или `Path` | Текстовый файл `*.streams` с одним URL потока на строку, например, 8 потоков запустятся с пакетом размером 8. | - -Ниже приведены примеры кода для использования каждого типа источника: - -!!! Example "Источники предсказаний" - - === "изображение" - Выполнить вывод на файл изображения. - ```python - from ultralytics import YOLO - - # Загрузка предварительно обученной модели YOLOv8n - model = YOLO('yolov8n.pt') - - # Определите путь к файлу изображения - source = 'path/to/image.jpg' - - # Выполнить вывод на источник - results = model(source) # список объектов Results - ``` - - === "скриншот" - Выполнить вывод на текущее содержимое экрана в виде скриншота. - ```python - from ultralytics import YOLO - - # Загрузка предварительно обученной модели YOLOv8n - model = YOLO('yolov8n.pt') - - # Определение текущего скриншота как источника - source = 'screen' - - # Выполнить вывод на источник - results = model(source) # список объектов Results - ``` - - === "URL" - Выполнить вывод на изображение или видео, размещенные удаленно по URL. - ```python - from ultralytics import YOLO - - # Загрузка предварительно обученной модели YOLOv8n - model = YOLO('yolov8n.pt') - - # Определение URL удаленного изображения или видео - source = 'https://ultralytics.com/images/bus.jpg' - - # Выполнить вывод на источник - results = model(source) # список объектов Results - ``` - - === "PIL" - Выполнение вывода на изображение, открытое с помощью Python Imaging Library (PIL). - ```python - from PIL import Image - from ultralytics import YOLO - - # Загрузка предварительно обученной модели YOLOv8n - model = YOLO('yolov8n.pt') - - # Открытие изображения с помощью PIL - source = Image.open('path/to/image.jpg') - - # Выполнение вывода на источник - results = model(source) # список объектов Results - ``` - - === "OpenCV" - Выполнение вывода на изображение, прочитанное с помощью OpenCV. - ```python - import cv2 - from ultralytics import YOLO - - # Загрузка предварительно обученной модели YOLOv8n - model = YOLO('yolov8n.pt') - - # Чтение изображения с помощью OpenCV - source = cv2.imread('path/to/image.jpg') - - # Выполнение вывода на источник - results = model(source) # список объектов Results - ``` - - === "numpy" - Выполнение вывода на изображение, представленное в виде массива numpy. - ```python - import numpy as np - from ultralytics import YOLO - - # Загрузка предварительно обученной модели YOLOv8n - model = YOLO('yolov8n.pt') - - # Создание случайного массива numpy с формой HWC (640, 640, 3) со значениями в диапазоне [0, 255] и типом uint8 - source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') - - # Выполнение вывода на источник - results = model(source) # список объектов Results - ``` - - === "torch" - Выполнение вывода на изображение, представленное в виде тензора PyTorch. - ```python - import torch - from ultralytics import YOLO - - # Загрузка предварительно обученной модели YOLOv8n - model = YOLO('yolov8n.pt') - - # Создание случайного тензора torch с формой BCHW (1, 3, 640, 640) со значениями в диапазоне [0, 1] и типом float32 - source = torch.rand(1, 3, 640, 640, dtype=torch.float32) - - # Выполнение вывода на источник - results = model(source) # список объектов Results - ``` diff --git a/docs/ru/modes/track.md b/docs/ru/modes/track.md deleted file mode 100644 index 97bd877d1aa..00000000000 --- a/docs/ru/modes/track.md +++ /dev/null @@ -1,200 +0,0 @@ ---- -comments: true -description: Узнайте, как использовать Ultralytics YOLO для отслеживания объектов в видеопотоках. Руководства по использованию различных трекеров и настройке конфигурации трекера. -keywords: Ultralytics, YOLO, отслеживание объектов, видеопотоки, BoT-SORT, ByteTrack, руководство на Python, руководство CLI ---- - -# Множественное отслеживание объектов с помощью Ultralytics YOLO - -Примеры множественного отслеживания объектов - -Отслеживание объектов в сфере видеоаналитики является ключевой задачей, которая определяет не только местоположение и класс объектов в кадре, но также поддерживает уникальный ID для каждого обнаруженного объекта по мере развития видео. Приложения безграничны — от наблюдения и безопасности до аналитики реального времени в спорте. - -## Почему стоит выбрать Ultralytics YOLO для отслеживания объектов? - -Вывод с трекеров Ultralytics согласуется со стандартным обнаружением объектов, но имеет добавленные ID объектов. Это упрощает отслеживание объектов в видеопотоках и выполнение последующей аналитики. Вот почему вы должны рассмотреть использование Ultralytics YOLO для ваших потребностей в отслеживании объектов: - -- **Эффективность:** Обработка видеопотоков в режиме реального времени без потери точности. -- **Гибкость:** Поддержка множества алгоритмов отслеживания и конфигураций. -- **Простота использования:** Простой Python API и CLI-опции для быстрой интеграции и развертывания. -- **Настраиваемость:** Легкость использования с пользовательскими обученными моделями YOLO, позволяющая интеграцию в специфические для домена приложения. - -

-
- -
- Смотрите: Обнаружение объектов и отслеживание с Ultralytics YOLOv8. -

- -## Прикладные применения - -| Транспорт | Ритейл | Аквакультура | -|:---------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|:----------------------------------------------------------------------------------------------------------------------:| -| ![Отслеживание транспортных средств](https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab) | ![Отслеживание людей](https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527) | ![Отслеживание рыб](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142) | -| Отслеживание транспортных средств | Отслеживание людей | Отслеживание рыб | - -## Ключевые особенности - -Ultralytics YOLO расширяет свои возможности обнаружения объектов для обеспечения надежного и универсального отслеживания объектов: - -- **Отслеживание в реальном времени:** Безпрерывное отслеживание объектов в видео с высокой частотой кадров. -- **Поддержка множества трекеров:** Выбор из разнообразия установленных алгоритмов отслеживания. -- **Настраиваемые конфигурации трекеров:** Настройка алгоритма отслеживания для конкретных требований путем регулировки различных параметров. - -## Доступные трекеры - -Ultralytics YOLO поддерживает следующие алгоритмы отслеживания. Их можно включить, передав соответствующий YAML файл конфигурации, например `tracker=tracker_type.yaml`: - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - Используйте `botsort.yaml`, чтобы активировать этот трекер. -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - Используйте `bytetrack.yaml`, чтобы активировать этот трекер. - -Трекер по умолчанию - BoT-SORT. - -## Отслеживание - -Для запуска трекера на видеопотоках используйте обученные модели Detect, Segment или Pose, такие как YOLOv8n, YOLOv8n-seg и YOLOv8n-pose. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите официальную или пользовательскую модель - model = YOLO('yolov8n.pt') # Загрузить официальную модель Detect - model = YOLO('yolov8n-seg.pt') # Загрузить официальную модель Segment - model = YOLO('yolov8n-pose.pt') # Загрузить официальную модель Pose - model = YOLO('path/to/best.pt') # Загрузить пользовательскую обученную модель - - # Выполнить отслеживание с помощью модели - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # Отслеживание с трекером по умолчанию - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # Отслеживание с трекером ByteTrack - ``` - - === "CLI" - - ```bash - # Выполнить отслеживание с различными моделями используя командный интерфейс - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # Официальная модель Detect - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # Официальная модель Segment - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # Официальная модель Pose - yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # Пользовательская обученная модель - - # Отслеживание с использованием трекера ByteTrack - yolo track model=path/to/best.pt tracker="bytetrack.yaml" - ``` - -Как видно из вышеуказанного использования, отслеживание доступно для всех моделей Detect, Segment и Pose, работающих с видео или потоковыми источниками. - -## Конфигурация - -### Аргументы для отслеживания - -Конфигурация отслеживания имеет общие свойства с режимом Predict, такие как `conf`, `iou` и `show`. Для дальнейшей настройки обратитесь к странице модели [Predict](https://docs.ultralytics.com/modes/predict/). - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Настройте параметры отслеживания и запустите трекер - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # Настройте параметры отслеживания и запустите трекер, используя командный интерфейс - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### Выбор трекера - -Ultralytics также позволяет использовать измененный файл конфигурации трекера. Для этого просто сделайте копию файла конфигурации трекера (например, `custom_tracker.yaml`) из [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) и измените любые настройки (кроме `tracker_type`) в соответствии с вашими потребностями. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель и запустите трекер с пользовательским файлом конфигурации - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # Загрузите модель и запустите трекер с пользовательским файлом конфигурации, используя командный интерфейс - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -Для полного списка аргументов отслеживания обратитесь к странице [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers). - -## Примеры на Python - -### Цикл сохранения следов - -Вот пример скрипта Python, использующий OpenCV (`cv2`) и YOLOv8 для выполнения отслеживания объектов на кадрах видео. В этом сценарии предполагается, что вы уже установили необходимые пакеты (`opencv-python` и `ultralytics`). Аргумент `persist=True` указывает трекеру, что текущее изображение или кадр является следующим в последовательности и ожидает, что следы с предыдущего изображения будут присутствовать в текущем изображении. - -!!! Example "Цикл с потоковым отслеживанием for-loop" - - ```python - import cv2 - from ultralytics import YOLO - - # Загрузите модель YOLOv8 - model = YOLO('yolov8n.pt') - - # Откройте видеофайл - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # Цикл по кадрам видео - while cap.isOpened(): - # Чтение кадра из видео - success, frame = cap.read() - - if success: - # Выполните отслеживание YOLOv8 для кадра, сохраняя следы между кадрами - results = model.track(frame, persist=True) - - # Визуализируйте результаты на кадре - annotated_frame = results[0].plot() - - # Покажите аннотированный кадр - cv2.imshow("Отслеживание YOLOv8", annotated_frame) - - # Прервать цикл, если нажата клавиша 'q' - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # Прервать цикл, если достигнут конец видео - break - - # Освободите объект захвата видео и закройте окно отображения - cap.release() - cv2.destroyAllWindows() - ``` - -Обратите внимание на изменение с `model(frame)` на `model.track(frame)`, которое позволяет включить отслеживание объектов вместо простого обнаружения. Этот измененный скрипт будет выполнять трекер на каждом кадре видео, визуализировать результаты и отображать их в окне. Цикл можно завершить нажатием 'q'. - -## Содействие в новых трекерах - -Вы являетесь профессионалом в множественном отслеживании объектов и успешно реализовали или адаптировали алгоритм отслеживания с Ultralytics YOLO? Мы приглашаем вас внести свой вклад в наш раздел Trackers на [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)! Ваши реальные приложения и решения могут быть бесценными для пользователей, работающих над задачами отслеживания. - -Внося свой вклад в этот раздел, вы помогаете расширить спектр доступных решений для отслеживания в рамках фреймворка Ultralytics YOLO, добавляя еще один уровень функциональности и полезности для сообщества. - -Чтобы начать свой вклад, пожалуйста, ознакомьтесь с нашим [Руководством для участников](https://docs.ultralytics.com/help/contributing) для получения полной инструкции по отправке Pull Request (PR) 🛠️. Мы в предвкушении увидеть, что вы принесете на стол! - -Вместе давайте улучшим возможности отслеживания экосистемы Ultralytics YOLO 🙏! diff --git a/docs/ru/modes/train.md b/docs/ru/modes/train.md deleted file mode 100644 index 38642f30b7f..00000000000 --- a/docs/ru/modes/train.md +++ /dev/null @@ -1,206 +0,0 @@ ---- -comments: true -description: Пошаговое руководство по обучению моделей YOLOv8 с использованием Ultralytics YOLO, включая примеры обучения на одном и нескольких GPU -keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, режим обучения, настраиваемый набор данных, обучение на GPU, много-GPU, гиперпараметры, примеры CLI, примеры Python ---- - -# Обучение моделей с помощью Ultralytics YOLO - -Экосистема и интеграции Ultralytics YOLO - -## Введение - -Обучение глубокой обучающей модели включает в себя подачу данных и настройку её параметров, так чтобы она могла делать точные прогнозы. Режим обучения в Ultralytics YOLOv8 предназначен для эффективного и результативного обучения моделей обнаружения объектов с полным использованием возможностей современной аппаратуры. Это руководство нацелено на описание всех деталей, необходимых для начала обучения ваших моделей с использованием богатого набора функций YOLOv8. - -

-
- -
- Смотреть: Как обучить модель YOLOv8 на вашем настраиваемом наборе данных в Google Colab. -

- -## Почему стоит выбрать Ultralytics YOLO для обучения? - -Вот несколько убедительных причин использовать режим Train YOLOv8: - -- **Эффективность:** Используйте максимум возможностей вашего оборудования, будь то настройка с одним GPU или распределение нагрузки на несколько GPU. -- **Универсальность:** Обучайте на настраиваемых наборах данных, помимо уже доступных, таких как COCO, VOC и ImageNet. -- **Дружелюбный интерфейс:** Простой, но мощный интерфейс командной строки (CLI) и Python для прямолинейного опыта обучения. -- **Гибкость гиперпараметров:** Широкий спектр настраиваемых гиперпараметров для тонкой настройки производительности модели. - -### Ключевые особенности режима Train - -Вот некоторые заметные особенности режима Train YOLOv8: - -- **Автоматическая загрузка набора данных:** Стандартные наборы данных, такие как COCO, VOC и ImageNet, загружаются автоматически при первом использовании. -- **Поддержка многих GPU:** Масштабируйте усилия по обучению без проблем на нескольких GPU, чтобы ускорить процесс. -- **Настройка гиперпараметров:** Возможность изменения гиперпараметров через файлы конфигурации YAML или аргументы CLI. -- **Визуализация и мониторинг:** Отслеживание метрик обучения в реальном времени и визуализация процесса обучения для лучшего понимания. - -!!! Tip "Совет" - - * Наборы данных YOLOv8, такие как COCO, VOC, ImageNet и многие другие, автоматически загружаются при первом использовании, например, `yolo train data=coco.yaml` - -## Примеры использования - -Обучение YOLOv8n на наборе данных COCO128 в течение 100 эпох с размером изображения 640. Устройство для обучения может быть указано с помощью аргумента `device`. Если аргумент не передан, будет использоваться GPU `device=0`, если доступен, в противном случае будет использоваться `device=cpu`. Смотрите раздел Аргументы ниже для полного списка аргументов обучения. - -!!! Example "Пример обучения на одном GPU и CPU" - - Устройство определяется автоматически. Если доступен GPU, то он будет использован, иначе обучение начнется на CPU. - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n.yaml') # создать новую модель из YAML - model = YOLO('yolov8n.pt') # загрузить предобученную модель (рекомендуется для обучения) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # создать из YAML и перенести веса - - # Обучить модель - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash - # Создать новую модель из YAML и начать обучение с нуля - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Начать обучение с предобученной модели *.pt - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Создать новую модель из YAML, перенести предобученные веса и начать обучение - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Обучение на нескольких GPU - -Обучение на нескольких GPU позволяет более эффективно использовать доступные аппаратные ресурсы, распределяя нагрузку по обучению на несколько GPU. Эта функция доступна как через Python API, так и через командный интерфейс. Чтобы включить обучение на нескольких GPU, укажите идентификаторы устройств GPU, которые вы хотите использовать. - -!!! Example "Пример обучения на нескольких GPU" - - Чтобы обучить с использованием 2 GPU, устройств CUDA 0 и 1 используйте следующие команды. Расширьте до дополнительных GPU по мере необходимости. - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n.pt') # загрузить предобученную модель (рекомендуется для обучения) - - # Обучить модель с использованием 2 GPU - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # Начать обучение с предобученной модели *.pt используя GPU 0 и 1 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### Обучение на Apple M1 и M2 с использованием MPS - -С интеграцией поддержки чипов Apple M1 и M2 в модели Ultralytics YOLO теперь можно обучать ваши модели на устройствах, использующих мощную платформу Metal Performance Shaders (MPS). MPS предлагает производительный способ выполнения вычислений и задач обработки изображений на пользовательских кремниевых чипах Apple. - -Чтобы запустить обучение на чипах Apple M1 и M2, вы должны указать 'mps' в качестве вашего устройства при запуске процесса обучения. Ниже приведены примеры использования Python и командной строки: - -!!! Example "Пример обучения с MPS" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n.pt') # загрузить предобученную модель (рекомендуется для обучения) - - # Обучить модель с использованием MPS - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # Начать обучение с предобученной модели *.pt используя MPS - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -Используя вычислительные возможности чипов M1/M2, это позволяет более эффективно обрабатывать задачи обучения. Для более подробного руководства и расширенных параметров конфигурации, пожалуйста, обратитесь к [документации PyTorch MPS](https://pytorch.org/docs/stable/notes/mps.html). - -## Логирование - -В процессе обучения модели YOLOv8 вы можете найти ценным отслеживание производительности модели со временем. Здесь на помощь приходит логирование. YOLO от Ultralytics поддерживает три типа логгеров - Comet, ClearML и TensorBoard. - -Чтобы использовать логгер, выберите его из выпадающего меню в приведенном выше примере кода и запустите его. Выбранный логгер будет установлен и инициализирован. - -### Comet - -[Comet](https://www.comet.ml/site/) - это платформа, которая позволяет ученым и разработчикам отслеживать, сравнивать, объяснять и оптимизировать эксперименты и модели. Она предоставляет такие функции, как метрики в реальном времени, сравнение кода и отслеживание гиперпараметров. - -Чтобы использовать Comet: - -!!! Example "Пример" - - === "Python" - ```python - # pip install comet_ml - import comet_ml - - comet_ml.init() - ``` - -Не забудьте войти в свою учетную запись Comet на их сайте и получить свой API-ключ. Вам нужно будет добавить его в переменные среды или в свой скрипт, чтобы вести журнал своих экспериментов. - -### ClearML - -[ClearML](https://www.clear.ml/) - это открытая платформа, которая автоматизирует отслеживание экспериментов и помогает в эффективном обмене ресурсами. Она предназначена для помощи командам в управлении, выполнении и воспроизведении их работы в области ML более эффективно. - -Чтобы использовать ClearML: - -!!! Example "Пример" - - === "Python" - ```python - # pip install clearml - import clearml - - clearml.browser_login() - ``` - -После запуска этого скрипта вам нужно будет войти в вашу учетную запись ClearML в браузере и аутентифицировать вашу сессию. - -### TensorBoard - -[TensorBoard](https://www.tensorflow.org/tensorboard) - это инструмент визуализации для TensorFlow. Он позволяет вам визуализировать граф TensorFlow, выводить количественные метрики о выполнении вашего графа и показывать дополнительные данные, такие как изображения, проходящие через него. - -Чтобы использовать TensorBoard в [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): - -!!! Example "Пример" - - === "CLI" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # заменить на директорию 'runs' - ``` - -Чтобы использовать TensorBoard локально, запустите приведенную ниже команду и просмотрите результаты по адресу http://localhost:6006/. - -!!! Example "Пример" - - === "CLI" - ```bash - tensorboard --logdir ultralytics/runs # заменить на директорию 'runs' - ``` - -Это загрузит TensorBoard и направит его к каталогу, где сохраняются ваши журналы обучения. - -После настройки вашего логгера вы можете продолжать обучение модели. Все метрики обучения будут автоматически записаны на выбранной вами платформе, и вы сможете получить доступ к этим журналам, чтобы отслеживать производительность вашей модели со временем, сравнивать различные модели и определять области для улучшения. diff --git a/docs/ru/modes/val.md b/docs/ru/modes/val.md deleted file mode 100644 index 1d7fb5d7bff..00000000000 --- a/docs/ru/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: Руководство по проверке моделей YOLOv8. Узнайте, как оценить производительность ваших моделей YOLO, используя параметры проверки и метрики с примерами на Python и CLI. -keywords: Ultralytics, YOLO Документация, YOLOv8, проверка, оценка модели, гиперпараметры, точность, метрики, Python, CLI ---- - -# Валидация моделей с Ultralytics YOLO - -Ultralytics YOLO экосистема и интеграции - -## Введение - -Валидация является критически важным этапом в процессе машинного обучения, позволяющим оценить качество ваших обученных моделей. Режим Val в Ultralytics YOLOv8 обеспечивает набор инструментов и метрик для оценки производительности ваших моделей по обнаружению объектов. Это руководство служит полным ресурсом для понимания того, как эффективно использовать режим Val, чтобы обеспечить точность и надежность ваших моделей. - -## Зачем проверять с Ultralytics YOLO? - -Вот почему использование режима Val YOLOv8 выгодно: - -- **Точность:** Получите точные метрики, такие как mAP50, mAP75 и mAP50-95, для всесторонней оценки вашей модели. -- **Удобство:** Используйте встроенные функции, которые запоминают настройки обучения, упрощая процесс валидации. -- **Гибкость:** Проверяйте вашу модель с использованием тех же или разных наборов данных и размеров изображений. -- **Настройка гиперпараметров:** Используйте метрики проверки для дополнительной настройки вашей модели для лучшей производительности. - -### Основные функции режима Val - -Вот некоторые заметные функции, предлагаемые режимом Val YOLOv8: - -- **Автоматизированные настройки:** Модели запоминают свои конфигурации обучения для простой валидации. -- **Поддержка множества метрик:** Оцените вашу модель, основываясь на ряде метрик точности. -- **CLI и Python API:** Выберите интерфейс командной строки или Python API в зависимости от вашего предпочтения для проверки. -- **Совместимость данных:** Бесперебойно работает с наборами данных, используемыми во время фазы обучения, а также с пользовательскими наборами данных. - -!!! Tip "Совет" - - * Модели YOLOv8 автоматически запоминают свои настройки обучения, так что вы можете легко проверить модель с тем же размером изображения и на оригинальном наборе данных, просто используя `yolo val model=yolov8n.pt` или `model('yolov8n.pt').val()` - -## Примеры использования - -Проверьте точность обученной модели YOLOv8n на наборе данных COCO128. Аргументы передавать не требуется, так как `модель` сохраняет `данные` и аргументы в качестве атрибутов модели. См. раздел Аргументы ниже для полного списка аргументов экспорта. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузка модели - model = YOLO('yolov8n.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить пользовательскую модель - - # Проверка модели - metrics = model.val() # аргументы не нужны, набор данных и настройки запомнены - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # список содержит map50-95 каждой категории - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # проверить официальную модель - yolo detect val model=path/to/best.pt # проверить пользовательскую модель - ``` - -## Аргументы - -Настройки проверки для моделей YOLO относятся к различным гиперпараметрам и конфигурациям, используемым для оценки производительности модели на наборе данных для проверки. Эти настройки могут влиять на производительность, скорость и точность модели. Некоторые общие параметры проверки YOLO включают размер пакета, частоту проведения проверки во время обучения и метрики, используемые для оценки производительности модели. Другие факторы, которые могут влиять на процесс проверки, включают размер и состав набора данных для проверки и конкретную задачу, для которой используется модель. Важно тщательно настроить и провести эксперименты с этими параметрами, чтобы убедиться, что модель хорошо работает на наборе данных для проверки и для обнаружения и предотвращения переобучения. - -| Ключ | Значение | Описание | -|---------------|----------|-----------------------------------------------------------------------------------------| -| `data` | `None` | путь к файлу данных, например, coco128.yaml | -| `imgsz` | `640` | размер входных изображений как целое число | -| `batch` | `16` | количество изображений в пакете (-1 для AutoBatch) | -| `save_json` | `False` | сохранить результаты в файл JSON | -| `save_hybrid` | `False` | сохранить гибридную версию меток (метки + дополнительные предсказания) | -| `conf` | `0.001` | порог уверенности объекта для обнаружения | -| `iou` | `0.6` | порог пересечения по объединению (IoU) для NMS (нечеткое сравнение) | -| `max_det` | `300` | максимальное количество обнаружений на изображение | -| `half` | `True` | использовать полупрецизионность (FP16) | -| `device` | `None` | устройство для выполнения, например, cuda device=0/1/2/3 или device=cpu | -| `dnn` | `False` | использовать OpenCV DNN для ONNX инференции | -| `plots` | `False` | показывать графики во время обучения | -| `rect` | `False` | прямоугольная валидация с коллекцией каждого пакета для минимальной паддинга | -| `split` | `val` | раздел набора данных для использования в валидации, например, 'val', 'test' или 'train' | -| diff --git a/docs/ru/quickstart.md b/docs/ru/quickstart.md deleted file mode 100644 index 409c2eaf7ee..00000000000 --- a/docs/ru/quickstart.md +++ /dev/null @@ -1,198 +0,0 @@ ---- -comments: true -description: Изучение различных методов установки Ultralytics с использованием pip, conda, git и Docker. Освоение работы с Ultralytics через интерфейс командной строки или в рамках ваших проектов на Python. -keywords: установка Ultralytics, установка pip Ultralytics, установка Docker Ultralytics, интерфейс командной строки Ultralytics, Python интерфейс Ultralytics ---- - -## Установка Ultralytics - -Ultralytics предлагает различные методы установки, включая pip, conda и Docker. Установите YOLOv8 через пакет `ultralytics` pip для последнего стабильного выпуска или путем клонирования [репозитория Ultralytics на GitHub](https://github.com/ultralytics/ultralytics) для получения самой актуальной версии. Docker можно использовать для выполнения пакета в изолированном контейнере, избегая локальной установки. - -!!! Example "Установка" - - === "Установка через Pip (рекомендуется)" - Установите пакет `ultralytics` с помощью pip или обновите существующую установку, запустив `pip install -U ultralytics`. Посетите индекс пакетов Python (PyPI) для получения дополнительной информации о пакете `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). - - [![Версия PyPI](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Загрузки](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # Установка пакета ultralytics из PyPI - pip install ultralytics - ``` - - Вы также можете установить пакет `ultralytics` напрямую из [репозитория на GitHub](https://github.com/ultralytics/ultralytics). Это может быть полезно, если вы хотите получить последнюю версию для разработки. Убедитесь, что в вашей системе установлен инструмент командной строки Git. Команда `@main` устанавливает ветку `main`, которую можно изменить на другую, к примеру, `@my-branch`, или удалить полностью, чтобы по умолчанию использовалась ветка `main`. - - ```bash - # Установка пакета ultralytics из GitHub - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - === "Установка через Conda" - Conda - это альтернативный менеджер пакетов для pip, который также может быть использован для установки. Посетите Anaconda для получения дополнительной информации: [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics). Репозиторий для обновления conda пакета Ultralytics находится здесь: [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/). - - [![Conda Recipe](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Загрузки](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Версия](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Платформы](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # Установка пакета ultralytics с помощью conda - conda install -c conda-forge ultralytics - ``` - - !!! Note "Заметка" - - Если вы устанавливаете пакет в среде CUDA, лучшей практикой будет установка `ultralytics`, `pytorch` и `pytorch-cuda` одной командой, чтобы менеджер пакетов conda мог разрешить любые конфликты или установить `pytorch-cuda` последним, чтобы при необходимости он мог заменить пакет `pytorch`, предназначенный для ЦП. - - ```bash - # Установка всех пакетов вместе с помощью conda - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Образ Conda для Docker - - Образы Conda Ultralytics также доступны на [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics). Эти образы основаны на [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) и являются простым способом начать использовать `ultralytics` в среде Conda. - - ```bash - # Установка имени образа в переменную - t=ultralytics/ultralytics:latest-conda - - # Скачивание последнего образа ultralytics с Docker Hub - sudo docker pull $t - - # Запуск образа ultralytics в контейнере с поддержкой GPU - sudo docker run -it --ipc=host --gpus all $t # все GPU - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # выбор GPU - ``` - - === "Клонирование Git" - Клонируйте репозиторий `ultralytics`, если вы заинтересованы в участии в разработке или хотите экспериментировать с последним исходным кодом. После клонирования перейдите в каталог и установите пакет в режиме редактирования `-e` с помощью pip. - - ```bash - # Клонирование репозитория ultralytics - git clone https://github.com/ultralytics/ultralytics - - # Переход в клонированный каталог - cd ultralytics - - # Установка пакета в режиме редактирования для разработки - pip install -e . - ``` - -Смотрите файл [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml) `ultralytics` для списка зависимостей. Обратите внимание, что все приведенные выше примеры устанавливают все необходимые зависимости. - -

-
- -
- Watch: Ultralytics YOLO Quick Start Guide -

- -!!! Tip "Совет" - - Требования PyTorch зависят от операционной системы и требований CUDA, поэтому рекомендуется сначала установить PyTorch, следуя инструкциям на [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). - - - Инструкции по установке PyTorch - - -## Использование Ultralytics с CLI - -Интерфейс командной строки (CLI) Ultralytics позволяет выполнять простые команды одной строкой без необходимости настройки Python среды. CLI не требует настройки или кода на Python. Все задачи можно легко выполнить из терминала с помощью команды `yolo`. Прочтите [Руководство по CLI](/../usage/cli.md), чтобы узнать больше о использовании YOLOv8 из командной строки. - -!!! Example "Пример" - - === "Cинтаксис" - - Команды Ultralytics `yolo` используют следующий синтаксис: - ```bash - yolo ЗАДАЧА РЕЖИМ АРГУМЕНТЫ - - Где ЗАДАЧА (необязательно) одна из [detect, segment, classify] - РЕЖИМ (обязательно) один из [train, val, predict, export, track] - АРГУМЕНТЫ (необязательно) любое количество пар 'arg=value', которые переопределяют настройки по умолчанию. - ``` - Смотрите все АРГУМЕНТЫ в полном [Руководстве по конфигурации](/../usage/cfg.md) или с помощью `yolo cfg` - - === "Train" - - Обучение модели для детекции на 10 эпохах с начальной скоростью обучения 0.01 - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "Predict" - - Прогнозирование видео с YouTube с использованием предварительно обученной модели сегментации при размере изображения 320: - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "Val" - - Валидация предварительно обученной модели детекции с размером партии 1 и размером изображения 640: - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "Export" - - Экспорт модели классификации YOLOv8n в формат ONNX с размером изображения 224 на 128 (TASK не требуется) - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "Special" - - Выполнение специальных команд для просмотра версии, настроек, запуска проверок и другого: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "Предупреждение" - - Аргументы должны передаваться в виде пар `arg=val`, разделенных знаком равенства `=`, и разделены пробелами ` ` между парами. Не используйте префиксы аргументов `--` или запятые `,` между аргументами. - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`   ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25`   ❌ - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25`   ❌ - -[Руководство по CLI](/../usage/cli.md){ .md-button } - -## Использование Ultralytics с Python - -Python интерфейс YOLOv8 позволяет легко интегрировать его в ваши Python проекты, упрощая загрузку, выполнение и обработку результатов работы модели. Интерфейс Python разработан с акцентом на простоту и удобство использования, позволяя пользователям быстро внедрять функции обнаружения объектов, сегментации и классификации в их проектах. Это делает интерфейс Python YOLOv8 незаменимым инструментом для тех, кто хочет включить эти функции в свои Python проекты. - -Например, пользователи могут загрузить модель, обучить ее, оценить ее производительность на валидационном наборе, и даже экспортировать ее в формат ONNX всего за несколько строк кода. Подробнее о том, как использовать YOLOv8 в ваших Python проектах, читайте в [Руководстве по Python](/../usage/python.md). - -!!! Example "Пример" - - ```python - from ultralytics import YOLO - - # Создание новой YOLO модели с нуля - model = YOLO('yolov8n.yaml') - - # Загрузка предварительно обученной YOLO модели (рекомендуется для обучения) - model = YOLO('yolov8n.pt') - - # Обучение модели с использованием набора данных 'coco128.yaml' на 3 эпохи - results = model.train(data='coco128.yaml', epochs=3) - - # Оценка производительности модели на валидационном наборе - results = model.val() - - # Выполнение обнаружения объектов на изображении с помощью модели - results = model('https://ultralytics.com/images/bus.jpg') - - # Экспорт модели в формат ONNX - success = model.export(format='onnx') - ``` - -[Руководство по Python](/../usage/python.md){.md-button .md-button--primary} diff --git a/docs/ru/tasks/classify.md b/docs/ru/tasks/classify.md deleted file mode 100644 index 7795525774e..00000000000 --- a/docs/ru/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: Узнайте о моделях классификации изображений YOLOv8 Classify. Получите подробную информацию о списке предварительно обученных моделей и как провести Обучение, Валидацию, Предсказание и Экспорт моделей. -keywords: Ultralytics, YOLOv8, классификация изображений, предварительно обученные модели, YOLOv8n-cls, обучение, валидация, предсказание, экспорт модели ---- - -# Классификация изображений - -Примеры классификации изображений - -Классификация изображений - это самая простая из трех задач и заключается в классификации всего изображения по одному из предварительно определенных классов. - -Выход классификатора изображений - это один классовый ярлык и уровень доверия. Классификация изображений полезна, когда вам нужно знать только к какому классу относится изображение, и не нужно знать, где находятся объекты данного класса или какова их точная форма. - -!!! Tip "Совет" - - Модели YOLOv8 Classify используют суффикс `-cls`, например `yolov8n-cls.pt`, и предварительно обучены на [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -## [Модели](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Здесь показаны предварительно обученные модели классификации YOLOv8. Модели для обнаружения, сегментации и позы обучаются на наборе данных [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), в то время как модели классификации обучаются на наборе данных [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -[Модели](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) автоматически загружаются из последнего релиза Ultralytics [release](https://github.com/ultralytics/assets/releases) при первом использовании. - -| Модель | Размер
(пиксели) | Точность
top1 | Точность
top5 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | Параметры
(М) | FLOPs
(Б) на 640 | -|----------------------------------------------------------------------------------------------|--------------------------|-----------------------|-----------------------|-----------------------------------|----------------------------------------|-----------------------|--------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- Значения **точность** указывают на точность модели на валидационном наборе данных [ImageNet](https://www.image-net.org/). -
Повторить результаты можно с помощью `yolo val classify data=path/to/ImageNet device=0`. -- **Скорость** усреднена по изображениям для валидации ImageNet, используя инстанс [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Повторить результаты можно с помощью `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu`. - -## Обучение - -Обучите модель YOLOv8n-cls на наборе данных MNIST160 на протяжении 100 эпох с размером изображения 64. Полный список доступных аргументов приведен на странице [Конфигурация](/../usage/cfg.md). - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n-cls.yaml') # создайте новую модель из YAML - model = YOLO('yolov8n-cls.pt') # загрузите предварительно обученную модель (рекомендуется для обучения) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # создайте из YAML и перенесите веса - - # Обучите модель - результаты = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # Создайте новую модель из YAML и начните обучение с нуля - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # Начните обучение с предварительно обученной *.pt модели - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # Создайте новую модель из YAML, перенесите предварительно обученные веса и начните обучение - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### Формат набора данных - -Формат набора данных для классификации YOLO можно подробно изучить в [Руководстве по наборам данных](../../../datasets/classify/index.md). - -## Валидация - -Проверьте точность обученной модели YOLOv8n-cls на наборе данных MNIST160. Не нужно передавать какие-либо аргументы, так как `model` сохраняет свои `data` и аргументы в качестве атрибутов модели. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n-cls.pt') # загрузите официальную модель - model = YOLO('path/to/best.pt') # загрузите собственную модель - - # Проведите валидацию модели - метрики = model.val() # аргументы не нужны, набор данных и настройки запомнены - метрики.top1 # точность top1 - метрики.top5 # точность top5 - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # валидация официальной модели - yolo classify val model=path/to/best.pt # валидация собственной модели - ``` - -## Предсказание - -Используйте обученную модель YOLOv8n-cls для выполнения предсказаний на изображениях. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n-cls.pt') # загрузите официальную модель - model = YOLO('path/to/best.pt') # загрузите собственную модель - - # Сделайте предсказание с помощью модели - результаты = model('https://ultralytics.com/images/bus.jpg') # сделайте предсказание на изображении - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # предсказание с официальной моделью - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # предсказание с собственной моделью - ``` - -Подробная информация о режиме `predict` приведена на странице [Предсказание](https://docs.ultralytics.com/modes/predict/). - -## Экспорт - -Экспортируйте модель YOLOv8n-cls в другой формат, например, ONNX, CoreML и т. д. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n-cls.pt') # загрузите официальную модель - model = YOLO('path/to/best.pt') # загрузите собственную обученную модель - - # Экспортируйте модель - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # экспорт официальной модели - yolo export model=path/to/best.pt format=onnx # экспорт собственной обученной модели - ``` - -Доступные форматы экспорта YOLOv8-cls представлены в таблице ниже. Вы можете выполнять предсказания или валидацию прямо на экспортированных моделях, например, `yolo predict model=yolov8n-cls.onnx`. Примеры использования показаны для вашей модели после завершения экспорта. - -| Формат | Аргумент `format` | Модель | Метаданные | Аргументы | -|--------------------------------------------------------------------|-------------------|-------------------------------|------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -Подробная информация об экспорте приведена на странице [Экспорт](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ru/tasks/detect.md b/docs/ru/tasks/detect.md deleted file mode 100644 index 5bc78d366fb..00000000000 --- a/docs/ru/tasks/detect.md +++ /dev/null @@ -1,184 +0,0 @@ ---- -comments: true -description: Официальная документация YOLOv8 от Ultralytics. Узнайте, как проводить обучение, проверку, предсказание и экспорт моделей в различных форматах. Включая подробные статистические данные о производительности. -keywords: YOLOv8, Ultralytics, обнаружение объектов, предобученные модели, обучение, валидация, предсказание, экспорт моделей, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# Обнаружение объектов - -Примеры обнаружения объектов - -Обнаружение объектов – это задача, которая включает идентификацию местоположения и класса объектов на изображении или видео. - -Результат работы детектора объектов – это набор ограничивающих рамок, которые заключают в себе объекты на изображении, вместе с метками классов и уровнями достоверности для каждой рамки. Обнаружение объектов является хорошим выбором, когда необходимо определить объекты интереса в сцене, но не нужно точно знать, где находится объект или его точную форму. - -

-
- -
- Смотрите: Обнаружение объектов с предобученной моделью Ultralytics YOLOv8. -

- -!!! Tip "Совет" - - YOLOv8 Detect модели являются стандартными моделями YOLOv8, то есть `yolov8n.pt`, и предобучены на [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [Модели](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Здесь показаны предобученные модели YOLOv8 Detect. Модели Detect, Segment и Pose предобучены на датасете [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), в то время как модели Classify предобучены на датасете [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -[Модели](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) автоматически загружаются с последнего релиза Ultralytics [release](https://github.com/ultralytics/assets/releases) при первом использовании. - -| Модель | размер
(пиксели) | mAPval
50-95 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(М) | FLOPs
(Б) | -|--------------------------------------------------------------------------------------|--------------------------|----------------------|-----------------------------------|----------------------------------------|-----------------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- **mAPval** значения для одиночной модели одиночного масштаба на датасете [COCO val2017](https://cocodataset.org). -
Для воспроизведения используйте `yolo val detect data=coco.yaml device=0` -- **Скорость** усреднена по изображениям COCO val на экземпляре [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). -
Для воспроизведения используйте `yolo val detect data=coco128.yaml batch=1 device=0|cpu` - -## Обучение - -Обучите модель YOLOv8n на датасете COCO128 в течение 100 эпох с размером изображения 640. Полный список доступных аргументов см. на странице [Конфигурация](/../usage/cfg.md). - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n.yaml') # создать новую модель из YAML - model = YOLO('yolov8n.pt') # загрузить предобученную модель (рекомендуется для обучения) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # создать из YAML и перенести веса - - # Обучите модель - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Создать новую модель из YAML и начать обучение с нуля - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # Начать обучение с предобученной модели *.pt - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # Создать новую модель из YAML, перенести в нее предобученные веса и начать обучение - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### Формат датасета - -Формат датасета для обнаружения YOLO можно найти более подробно в [Руководстве по датасетам](../../../datasets/detect/index.md). Чтобы конвертировать ваш существующий датасет из других форматов (например, COCO и т.д.) в формат YOLO, пожалуйста, используйте инструмент [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) от Ultralytics. - -## Валидация - -Проверьте точность обученной модели YOLOv8n на датасете COCO128. Необходимо передать аргументы, поскольку `model` сохраняет свои `data` и аргументы обучения как атрибуты модели. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить собственную модель - - # Проверьте модель - metrics = model.val() # аргументы не нужны, набор данных и настройки запоминаются - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # список содержит map50-95 для каждой категории - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # val официальная модель - yolo detect val model=path/to/best.pt # val собственная модель - ``` - -## Предсказание - -Используйте обученную модель YOLOv8n для выполнения предсказаний на изображениях. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить собственную модель - - # Сделайте предсказание с помощью модели - results = model('https://ultralytics.com/images/bus.jpg') # сделать предсказание на изображении - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # предсказание с официальной моделью - yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # предсказание с собственной моделью - ``` - -Полные детали режима `predict` смотрите на странице [Предсказание](https://docs.ultralytics.com/modes/predict/). - -## Экспорт - -Экспортируйте модель YOLOv8n в другой формат, такой как ONNX, CoreML и др. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузите модель - model = YOLO('yolov8n.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить собственную модель после обучения - - # Экспортируйте модель - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # экспорт официальной модели - yolo export model=path/to/best.pt format=onnx # экспорт собственной модели после обучения - ``` - -Доступные форматы экспорта YOLOv8 приведены в таблице ниже. Вы можете выполнять предсказания или проверку непосредственно на экспортированных моделях, например `yolo predict model=yolov8n.onnx`. Примеры использования для вашей модели показаны после завершения экспорта. - -| Формат | Аргумент `format` | Модель | Метаданные | Аргументы | -|--------------------------------------------------------------------|-------------------|---------------------------|------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -Полные детали режима `export` смотрите на странице [Экспорт](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ru/tasks/index.md b/docs/ru/tasks/index.md deleted file mode 100644 index cc88209d5b2..00000000000 --- a/docs/ru/tasks/index.md +++ /dev/null @@ -1,55 +0,0 @@ ---- -comments: true -description: Узнайте о ключевых задачах компьютерного зрения, которые может выполнять YOLOv8, включая обнаружение, сегментацию, классификацию и оценку позы. Поймите, как они могут быть использованы в ваших AI проектах. -keywords: Ultralytics, YOLOv8, Обнаружение, Сегментация, Классификация, Оценка Позы, AI Фреймворк, Задачи Компьютерного Зрения ---- - -# Задачи Ultralytics YOLOv8 - -
-Поддерживаемые задачи Ultralytics YOLO - -YOLOv8 — это AI фреймворк, поддерживающий множество задач компьютерного зрения **задачи**. Фреймворк может быть использован для выполнения [обнаружения](detect.md), [сегментации](segment.md), [классификации](classify.md) и оценки [позы](pose.md). Каждая из этих задач имеет различные цели и области применения. - -!!! Note "Заметка" - - 🚧 Наша многоязычная документация в настоящее время находится в стадии разработки, и мы усердно работаем над ее улучшением. Спасибо за ваше терпение! 🙏 - -

-
- -
- Смотрите: Изучите задачи Ultralytics YOLO: Обнаружение объектов, Сегментация, Отслеживание и Оценка позы. -

- -## [Обнаружение](detect.md) - -Обнаружение — это основная задача, поддерживаемая YOLOv8. Она заключается в обнаружении объектов на изображении или кадре видео и рисовании вокруг них ограничивающих рамок. Обнаруженные объекты классифицируются на разные категории на основе их характеристик. YOLOv8 может обнаруживать несколько объектов на одном изображении или видеокадре с высокой точностью и скоростью. - -[Примеры Обнаружения](detect.md){ .md-button } - -## [Сегментация](segment.md) - -Сегментация — это задача, которая включает разбиение изображения на разные регионы на основе содержимого изображения. Каждому региону присваивается метка на основе его содержимого. Эта задача полезна в таких приложениях, как сегментация изображений и медицинская визуализация. YOLOv8 использует вариацию архитектуры U-Net для выполнения сегментации. - -[Примеры Сегментации](segment.md){ .md-button } - -## [Классификация](classify.md) - -Классификация — это задача, включающая классификацию изображения на разные категории. YOLOv8 может быть использован для классификации изображений на основе их содержимого. Для выполнения классификации используется вариация архитектуры EfficientNet. - -[Примеры Классификации](classify.md){ .md-button } - -## [Поза](pose.md) - -Обнаружение точек позы или ключевых точек — это задача, которая включает обнаружение конкретных точек на изображении или видеокадре. Эти точки называются ключевыми и используются для отслеживания движения или оценки позы. YOLOv8 может обнаруживать ключевые точки на изображении или видеокадре с высокой точностью и скоростью. - -[Примеры Поз](pose.md){ .md-button } - -## Заключение - -YOLOv8 поддерживает множество задач, включая обнаружение, сегментацию, классификацию и обнаружение ключевых точек. Каждая из этих задач имеет разные цели и области применения. Понимая различия между этими задачами, вы можете выбрать подходящую задачу для вашего приложения компьютерного зрения. diff --git a/docs/ru/tasks/pose.md b/docs/ru/tasks/pose.md deleted file mode 100644 index 9a9107cab35..00000000000 --- a/docs/ru/tasks/pose.md +++ /dev/null @@ -1,176 +0,0 @@ ---- -comments: true -description: Узнайте, как использовать Ultralytics YOLOv8 для задач оценки позы. Найдите предварительно обученные модели, узнайте, как обучать, проверять, предсказывать и экспортировать свои собственные. ---- - -# Оценка позы - -![Примеры оценки позы](https://user-images.githubusercontent.com/26833433/243418616-9811ac0b-a4a7-452a-8aba-484ba32bb4a8.png) - -Оценка позы — это задача, заключающаяся в определении местоположения определённых точек на изображении, обычно называемых контрольными точками. Контрольные точки могут представлять различные части объекта, такие как суставы, ориентиры или другие характерные особенности. Расположение контрольных точек обычно представлено в виде набора 2D `[x, y]` или 3D `[x, y, visible]` координат. - -Результат работы модели оценки позы — это набор точек, представляющих контрольные точки на объекте в изображении, обычно вместе с оценками уверенности для каждой точки. Оценка позы является хорошим выбором, когда вам нужно идентифицировать конкретные части объекта в сцене и их расположение относительно друг друга. - -[Смотрите: Оценка позы с Ultralytics YOLOv8.](https://www.youtube.com/embed/Y28xXQmju64?si=pCY4ZwejZFu6Z4kZ) - -!!! Tip "Совет" - - Модели _pose_ YOLOv8 используют суффикс `-pose`, т.е. `yolov8n-pose.pt`. Эти модели обучены на наборе данных [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) и подходят для различных задач оценки позы. - -## [Модели](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Здесь представлены предварительно обученные модели YOLOv8 Pose. Модели Detect, Segment и Pose предварительно обучены на наборе данных [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), а модели Classify — на наборе данных [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -[Модели](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) скачиваются автоматически из последнего [релиза](https://github.com/ultralytics/assets/releases) Ultralytics при первом использовании. - -| Модель | размер
(пиксели) | mAPpose
50-95 | mAPpose
50 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(М) | FLOPs
(Б) | -|------------------------------------------------------------------------------------------------------|--------------------------|-----------------------|--------------------|-----------------------------------|----------------------------------------|-----------------------|-------------------| -| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- **mAPval** значения для одной модели одиночного масштаба на наборе данных [COCO Keypoints val2017](https://cocodataset.org). -
Воспроизводится с помощью: `yolo val pose data=coco-pose.yaml device=0` -- **Скорость** усреднена по изображениям COCO val на [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) инстансе. -
Воспроизводится с помощью: `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` - -## Обучение - -Обучите модель YOLOv8-pose на наборе данных COCO128-pose. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n-pose.yaml') # создать новую модель из YAML - model = YOLO('yolov8n-pose.pt') # загрузить предварительно обученную модель (рекомендуется для обучения) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # создать из YAML и перенести веса - - # Обучить модель - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Создать новую модель из YAML и начать обучение с нуля - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # Начать обучение с предварительно обученной модели *.pt - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # Создать новую модель из YAML, перенести предварительно обученные веса и начать обучение - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### Формат набора данных - -Формат набора данных YOLO pose можно найти в подробностях в [Руководстве по наборам данных](../../../datasets/pose/index.md). Для преобразования существующего набора данных из других форматов (например, COCO и т.д.) в формат YOLO, пожалуйста, используйте инструмент [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) от Ultralytics. - -## Проверка - -Проверьте точность обученной модели YOLOv8n-pose на наборе данных COCO128-pose. Аргументы не нужны, так как `model` -запоминает свои `data` и аргументы как атрибуты модели. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n-pose.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить свою модель - - # Проверить модель - metrics = model.val() # аргументы не нужны, набор данных и настройки запомнены - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # список содержит map50-95 для каждой категории - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # проверить официальную модель - yolo pose val model=path/to/best.pt # проверить свою модель - ``` - -## Предсказание - -Используйте обученную модель YOLOv8n-pose для выполнения предсказаний на изображениях. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n-pose.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить свою модель - - # Сделать предсказание моделью - results = model('https://ultralytics.com/images/bus.jpg') # предсказать по изображению - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # предсказать официальной моделью - yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # предсказать своей моделью - ``` - -Полные детали работы в режиме `predict` смотрите на странице [Predict](https://docs.ultralytics.com/modes/predict/). - -## Экспорт - -Экспортируйте модель YOLOv8n Pose в другой формат, такой как ONNX, CoreML и т.д. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n-pose.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить свою обученную модель - - # Экспортировать модель - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # экспортировать официальную модель - yolo export model=path/to/best.pt format=onnx # экспортировать свою обученную модель - ``` - -Доступные форматы экспорта модели YOLOv8-pose приведены в таблице ниже. Вы можете делать предсказания или проверки непосредственно с экспортированных моделей, например, `yolo predict model=yolov8n-pose.onnx`. Примеры использования показаны для вашей модели после завершения экспорта. - -| Формат | Аргумент `format` | Модель | Метаданные | Аргументы | -|--------------------------------------------------------------------|-------------------|--------------------------------|------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -Полные детали экспорта смотрите на странице [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ru/tasks/segment.md b/docs/ru/tasks/segment.md deleted file mode 100644 index 3288b03d99a..00000000000 --- a/docs/ru/tasks/segment.md +++ /dev/null @@ -1,189 +0,0 @@ ---- -comments: true -description: Научитесь использовать модели сегментации объектов с помощью Ultralytics YOLO. Инструкции по обучению, валидации, предсказанию изображений и экспорту моделей. -keywords: yolov8, сегментация объектов, Ultralytics, набор данных COCO, сегментация изображений, обнаружение объектов, обучение моделей, валидация моделей, предсказания изображений, экспорт моделей ---- - -# Сегментация экземпляров - -Примеры сегментации экземпляров - -Сегментация экземпляров идёт на шаг дальше по сравнению с обнаружением объектов и включает идентификацию отдельных объектов на изображении и их сегментацию от остальной части изображения. - -Результатом модели сегментации экземпляров является набор масок или контуров, очерчивающих каждый объект на изображении, вместе с классовыми метками и коэффициентами уверенности для каждого объекта. Сегментация экземпляров полезна, когда вам нужно знать не только, где находятся объекты на изображении, но и их точную форму. - -

-
- -
- Смотрите: Запуск сегментации с предварительно обученной моделью Ultralytics YOLOv8 на Python. -

- -!!! Tip "Совет" - - Модели YOLOv8 Segment используют суффикс `-seg`, например `yolov8n-seg.pt` и предварительно обучены на [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). - -## [Модели](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -Здесь показаны предварительно обученные модели Segment YOLOv8. Модели Detect, Segment и Pose предварительно обучены на наборе данных [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml), в то время как модели Classify предварительно обучены на наборе данных [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). - -[Модели](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) автоматически загружаются из последнего [релиза](https://github.com/ultralytics/assets/releases) Ultralytics при первом использовании. - -| Модель | размер
(пиксели) | mAPbox
50-95 | mAPmask
50-95 | Скорость
CPU ONNX
(мс) | Скорость
A100 TensorRT
(мс) | параметры
(М) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|--------------------------|----------------------|-----------------------|-----------------------------------|----------------------------------------|-----------------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- Значения **mAPval** для одиночной модели одиночного масштаба на наборе данных [COCO val2017](https://cocodataset.org). -
Воспроизведите с помощью `yolo val segment data=coco.yaml device=0` -- **Скорость** усреднена для изображений COCO val на [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) - инстансе. -
Воспроизведите с помощью `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` - -## Обучение - -Обучите модель YOLOv8n-seg на наборе данных COCO128-seg в течение 100 эпох при размере изображения 640. Полный список доступных аргументов см. на странице [Конфигурация](/../usage/cfg.md). - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n-seg.yaml') # создать новую модель из YAML - model = YOLO('yolov8n-seg.pt') # загрузить предварительно обученную модель (рекомендуется для обучения) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # создать из YAML и перенести веса - - # Обучить модель - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # Создать новую модель из YAML и начать обучение с нуля - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # Начать обучение с предварительно обученной модели *.pt - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # Создать новую модель из YAML, перенести предварительно обученные веса и начать обучение - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### Формат набора данных - -Формат набора данных для сегментации YOLO можно найти детально в [Руководстве по наборам данных](../../../datasets/segment/index.md). Чтобы конвертировать свой существующий набор данных из других форматов (например, COCO и т.д.) в формат YOLO, пожалуйста, используйте инструмент [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) от Ultralytics. - -## Валидация - -Проверьте точность обученной модели YOLOv8n-seg на наборе данных COCO128-seg. Аргументы передавать не нужно, так как `model` сохраняет `data` и аргументы обучения в качестве атрибутов модели. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n-seg.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить пользовательскую модель - - # Провалидировать модель - metrics = model.val() # аргументы не нужны, набор данных и настройки запомнены - metrics.box.map # map50-95(B) - metrics.box.map50 # map50(B) - metrics.box.map75 # map75(B) - metrics.box.maps # список содержит map50-95(B) каждой категории - metrics.seg.map # map50-95(M) - metrics.seg.map50 # map50(M) - metrics.seg.map75 # map75(M) - metrics.seg.maps # список содержит map50-95(M) каждой категории - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # валидация официальной модели - yolo segment val model=path/to/best.pt # валидация пользовательской модели - ``` - -## Предсказание - -Используйте обученную модель YOLOv8n-seg для выполнения предсказаний на изображениях. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n-seg.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить пользовательскую модель - - # Сделать предсказание с помощью модели - results = model('https://ultralytics.com/images/bus.jpg') # предсказать по изображению - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # предсказать с официальной моделью - yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # предсказать с пользовательской моделью - ``` - -Полная информация о режиме `predict` на странице [Predict](https://docs.ultralytics.com/modes/predict/). - -## Экспорт - -Экспортируйте модель YOLOv8n-seg в другой формат, например ONNX, CoreML и т.д. - -!!! Example "Пример" - - === "Python" - - ```python - from ultralytics import YOLO - - # Загрузить модель - model = YOLO('yolov8n-seg.pt') # загрузить официальную модель - model = YOLO('path/to/best.pt') # загрузить пользовательскую обученную модель - - # Экспортировать модель - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # экспортировать официальную модель - yolo export model=path/to/best.pt format=onnx # экспортировать пользовательскую обученную модель - ``` - -Доступные форматы экспорта YOLOv8-seg приведены в таблице ниже. После завершения экспорта для вашей модели показаны примеры использования, включая прямое предсказание или валидацию на экспортированных моделях, например `yolo predict model=yolov8n-seg.onnx`. - -| Формат | Аргумент `format` | Модель | Метаданные | Аргументы | -|--------------------------------------------------------------------|-------------------|-------------------------------|------------|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | - -Подробности о режиме `export` смотрите на странице [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/update_translations.py b/docs/update_translations.py deleted file mode 100644 index 8b64a4a42b6..00000000000 --- a/docs/update_translations.py +++ /dev/null @@ -1,345 +0,0 @@ -# Ultralytics YOLO 🚀, AGPL-3.0 license -""" -Script to fix broken Markdown links and front matter in language-specific directories zh, ko, ja, ru, de, fr, es, pt. - -This script processes markdown files in language-specific directories (like /zh/). It finds Markdown links and checks -their existence. If a link is broken and does not exist in the language-specific directory but exists in the /en/ -directory, the script updates the link to point to the corresponding file in the /en/ directory. - -It also ensures that front matter keywords like 'comments:', 'description:', and 'keywords:' are not translated and -remain in English. -""" - -import re -from pathlib import Path - - -class MarkdownLinkFixer: - """Class to fix Markdown links and front matter in language-specific directories.""" - - def __init__(self, base_dir, update_links=True, update_text=True): - """Initialize the MarkdownLinkFixer with the base directory.""" - self.base_dir = Path(base_dir) - self.update_links = update_links - self.update_text = update_text - self.md_link_regex = re.compile(r"\[([^]]+)]\(([^:)]+)\.md\)") - - @staticmethod - def replace_front_matter(content, lang_dir): - """Ensure front matter keywords remain in English.""" - english = ["comments", "description", "keywords"] - translations = { - "zh": ["评论", "描述", "关键词"], # Mandarin Chinese (Simplified) warning, sometimes translates as 关键字 - "es": ["comentarios", "descripción", "palabras clave"], # Spanish - "ru": ["комментарии", "описание", "ключевые слова"], # Russian - "pt": ["comentários", "descrição", "palavras-chave"], # Portuguese - "fr": ["commentaires", "description", "mots-clés"], # French - "de": ["kommentare", "beschreibung", "schlüsselwörter"], # German - "ja": ["コメント", "説明", "キーワード"], # Japanese - "ko": ["댓글", "설명", "키워드"], # Korean - "hi": ["टिप्पणियाँ", "विवरण", "कीवर्ड"], # Hindi - "ar": ["التعليقات", "الوصف", "الكلمات الرئيسية"], # Arabic - } # front matter translations for comments, description, keyword - - for term, eng_key in zip(translations.get(lang_dir.stem, []), english): - content = ( - re.sub(rf"{term} *[::].*", f"{eng_key}: true", content, flags=re.IGNORECASE) - if eng_key == "comments" - else re.sub(rf"{term} *[::] *", f"{eng_key}: ", content, flags=re.IGNORECASE) - ) - return content - - @staticmethod - def replace_admonitions(content, lang_dir): - """Ensure front matter keywords remain in English.""" - english = [ - "Note", - "Summary", - "Tip", - "Info", - "Success", - "Question", - "Warning", - "Failure", - "Danger", - "Bug", - "Example", - "Quote", - "Abstract", - "Seealso", - "Admonition", - ] - translations = { - "en": english, - "zh": [ - "笔记", - "摘要", - "提示", - "信息", - "成功", - "问题", - "警告", - "失败", - "危险", - "故障", - "示例", - "引用", - "摘要", - "另见", - "警告", - ], - "es": [ - "Nota", - "Resumen", - "Consejo", - "Información", - "Éxito", - "Pregunta", - "Advertencia", - "Fracaso", - "Peligro", - "Error", - "Ejemplo", - "Cita", - "Abstracto", - "Véase También", - "Amonestación", - ], - "ru": [ - "Заметка", - "Сводка", - "Совет", - "Информация", - "Успех", - "Вопрос", - "Предупреждение", - "Неудача", - "Опасность", - "Ошибка", - "Пример", - "Цитата", - "Абстракт", - "См. Также", - "Предостережение", - ], - "pt": [ - "Nota", - "Resumo", - "Dica", - "Informação", - "Sucesso", - "Questão", - "Aviso", - "Falha", - "Perigo", - "Bug", - "Exemplo", - "Citação", - "Abstrato", - "Veja Também", - "Advertência", - ], - "fr": [ - "Note", - "Résumé", - "Conseil", - "Info", - "Succès", - "Question", - "Avertissement", - "Échec", - "Danger", - "Bug", - "Exemple", - "Citation", - "Abstrait", - "Voir Aussi", - "Admonestation", - ], - "de": [ - "Hinweis", - "Zusammenfassung", - "Tipp", - "Info", - "Erfolg", - "Frage", - "Warnung", - "Ausfall", - "Gefahr", - "Fehler", - "Beispiel", - "Zitat", - "Abstrakt", - "Siehe Auch", - "Ermahnung", - ], - "ja": [ - "ノート", - "要約", - "ヒント", - "情報", - "成功", - "質問", - "警告", - "失敗", - "危険", - "バグ", - "例", - "引用", - "抄録", - "参照", - "訓告", - ], - "ko": [ - "노트", - "요약", - "팁", - "정보", - "성공", - "질문", - "경고", - "실패", - "위험", - "버그", - "예제", - "인용", - "추상", - "참조", - "경고", - ], - "hi": [ - "नोट", - "सारांश", - "सुझाव", - "जानकारी", - "सफलता", - "प्रश्न", - "चेतावनी", - "विफलता", - "खतरा", - "बग", - "उदाहरण", - "उद्धरण", - "सार", - "देखें भी", - "आगाही", - ], - "ar": [ - "ملاحظة", - "ملخص", - "نصيحة", - "معلومات", - "نجاح", - "سؤال", - "تحذير", - "فشل", - "خطر", - "عطل", - "مثال", - "اقتباس", - "ملخص", - "انظر أيضاً", - "تحذير", - ], - } - - for term, eng_key in zip(translations.get(lang_dir.stem, []), english): - if lang_dir.stem != "en": - content = re.sub(rf"!!! *{eng_key} *\n", f'!!! {eng_key} "{term}"\n', content, flags=re.IGNORECASE) - content = re.sub(rf"!!! *{term} *\n", f'!!! {eng_key} "{term}"\n', content, flags=re.IGNORECASE) - content = re.sub(rf"!!! *{term}", f"!!! {eng_key}", content, flags=re.IGNORECASE) - content = re.sub(r'!!! *"', '!!! Example "', content, flags=re.IGNORECASE) - - return content - - @staticmethod - def update_iframe(content): - """Update the 'allow' attribute of iframe if it does not contain the specific English permissions.""" - english = "accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" - pattern = re.compile(f'allow="(?!{re.escape(english)}).+?"') - return pattern.sub(f'allow="{english}"', content) - - def link_replacer(self, match, parent_dir, lang_dir, use_abs_link=False): - """Replace broken links with corresponding links in the /en/ directory.""" - text, path = match.groups() - linked_path = (parent_dir / path).resolve().with_suffix(".md") - - if not linked_path.exists(): - en_linked_path = Path(str(linked_path).replace(str(lang_dir), str(lang_dir.parent / "en"))) - if en_linked_path.exists(): - if use_abs_link: - # Use absolute links WARNING: BUGS, DO NOT USE - docs_root_relative_path = en_linked_path.relative_to(lang_dir.parent) - updated_path = str(docs_root_relative_path).replace("en/", "/../") - else: - # Use relative links - steps_up = len(parent_dir.relative_to(self.base_dir).parts) - updated_path = Path("../" * steps_up) / en_linked_path.relative_to(self.base_dir) - updated_path = str(updated_path).replace("/en/", "/") - - print(f"Redirecting link '[{text}]({path})' from {parent_dir} to {updated_path}") - return f"[{text}]({updated_path})" - else: - print(f"Warning: Broken link '[{text}]({path})' found in {parent_dir} does not exist in /docs/en/.") - - return match.group(0) - - @staticmethod - def update_html_tags(content): - """Updates HTML tags in docs.""" - alt_tag = "MISSING" - - # Remove closing slashes from self-closing HTML tags - pattern = re.compile(r"<([^>]+?)\s*/>") - content = re.sub(pattern, r"<\1>", content) - - # Find all images without alt tags and add placeholder alt text - pattern = re.compile(r"!\[(.*?)\]\((.*?)\)") - content, num_replacements = re.subn( - pattern, lambda match: f"![{match.group(1) or alt_tag}]({match.group(2)})", content - ) - - # Add missing alt tags to HTML images - pattern = re.compile(r']*src=["\'](.*?)["\'][^>]*>') - content, num_replacements = re.subn( - pattern, lambda match: match.group(0).replace(">", f' alt="{alt_tag}">', 1), content - ) - - return content - - def process_markdown_file(self, md_file_path, lang_dir): - """Process each markdown file in the language directory.""" - print(f"Processing file: {md_file_path}") - with open(md_file_path, encoding="utf-8") as file: - content = file.read() - - if self.update_links: - content = self.md_link_regex.sub(lambda m: self.link_replacer(m, md_file_path.parent, lang_dir), content) - - if self.update_text: - content = self.replace_front_matter(content, lang_dir) - content = self.replace_admonitions(content, lang_dir) - content = self.update_iframe(content) - content = self.update_html_tags(content) - - with open(md_file_path, "w", encoding="utf-8") as file: - file.write(content) - - def process_language_directory(self, lang_dir): - """Process each language-specific directory.""" - print(f"Processing language directory: {lang_dir}") - for md_file in lang_dir.rglob("*.md"): - self.process_markdown_file(md_file, lang_dir) - - def run(self): - """Run the link fixing and front matter updating process for each language-specific directory.""" - for subdir in self.base_dir.iterdir(): - if subdir.is_dir() and re.match(r"^\w\w$", subdir.name): - self.process_language_directory(subdir) - - -if __name__ == "__main__": - # Set the path to your MkDocs 'docs' directory here - docs_dir = str(Path(__file__).parent.resolve()) - fixer = MarkdownLinkFixer(docs_dir, update_links=True, update_text=True) - fixer.run() diff --git a/docs/zh/datasets/index.md b/docs/zh/datasets/index.md deleted file mode 100644 index f6b8cbe0b99..00000000000 --- a/docs/zh/datasets/index.md +++ /dev/null @@ -1,127 +0,0 @@ ---- -comments: true -description: 探索 Ultralytics 支持的多种计算机视觉数据集,适用于对象检测、分割、姿态估计、图像分类和多对象跟踪。 -keywords: 计算机视觉, 数据集, Ultralytics, YOLO, 对象检测, 实例分割, 姿态估计, 图像分类, 多对象跟踪 ---- - -# 数据集概览 - -Ultralytics 支持多种数据集,方便开展计算机视觉任务,诸如检测、实例分割、姿态估计、分类和多对象跟踪。以下是主要 Ultralytics 数据集的列表,以及每个计算机视觉任务及其相应数据集的概述。 - -!!! Note "笔记" - - Ultralytics 团队正在努力将文档翻译成多种语言。目前,本页面上的链接可能会直接指向英文文档页面,因为我们正在扩展多语言文档支持。感谢您的耐心等待 🙏! - -## [检测数据集](/../datasets/detect/index.md) - -边界框对象检测是一种计算机视觉技术,涉及通过在图像中的每个对象周围绘制边界框来检测和定位对象。 - -- [Argoverse](/../datasets/detect/argoverse.md):包含城市环境中的 3D 追踪和运动预测数据,并提供丰富的注释。 -- [COCO](/../datasets/detect/coco.md):一个大型数据集,专为对象检测、分割和描述设计,包含 20 多万带有标签的图像。 -- [COCO8](/../datasets/detect/coco8.md):包含 COCO 训练集和 COCO 验证集的前 4 张图像,适合快速测试。 -- [Global Wheat 2020](/../datasets/detect/globalwheat2020.md):一个小麦头部图像的数据集,收集自世界各地,用于对象检测和定位任务。 -- [Objects365](/../datasets/detect/objects365.md):一个高质量的大规模对象检测数据集,含 365 个对象类别和逾 60 万个注释图像。 -- [OpenImagesV7](/../datasets/detect/open-images-v7.md):谷歌提供的综合数据集,包含 170 万训练图像和 4.2 万验证图像。 -- [SKU-110K](/../datasets/detect/sku-110k.md):一个特点是在零售环境中进行密集对象检测的数据集,包含 1.1 万图像和 170 万个边界框。 -- [VisDrone](/../datasets/detect/visdrone.md):包含无人机拍摄图像中的对象检测和多对象跟踪数据的数据集,包含超过 1 万张图像和视频序列。 -- [VOC](/../datasets/detect/voc.md):Pascal Visual Object Classes (VOC) 对象检测和分割数据集,包含 20 个对象类别和逾 1.1 万图像。 -- [xView](/../datasets/detect/xview.md):用于航拍图像对象检测的数据集,包含 60 个对象类别和逾 100 万个注释对象。 - -## [实例分割数据集](/../datasets/segment/index.md) - -实例分割是一种计算机视觉技术,涉及在像素级别识别和定位图像中的对象。 - -- [COCO](/../datasets/segment/coco.md):一个大型数据集,专为对象检测、分割和描述任务设计,包含 20 多万带有标签的图像。 -- [COCO8-seg](/../datasets/segment/coco8-seg.md):一个用于实例分割任务的较小数据集,包含 8 张带有分割注释的 COCO 图像。 - -## [姿态估计](/../datasets/pose/index.md) - -姿态估计是一种用于确定对象相对于相机或世界坐标系统的姿势的技术。 - -- [COCO](/../datasets/pose/coco.md):一个包含人体姿态注释的大型数据集,专为姿态估计任务设计。 -- [COCO8-pose](/../datasets/pose/coco8-pose.md):一个用于姿态估计任务的较小数据集,包含 8 张带有人体姿态注释的 COCO 图像。 -- [Tiger-pose](/../datasets/pose/tiger-pose.md):一个紧凑型数据集,包含 263 张专注于老虎的图像,每只老虎注释有 12 个关键点,用于姿态估计任务。 - -## [分类](/../datasets/classify/index.md) - -图像分类是一个计算机视觉任务,涉及基于其视觉内容将图像分类到一个或多个预定义类别中。 - -- [Caltech 101](/../datasets/classify/caltech101.md):包含 101 个对象类别图像的数据集,用于图像分类任务。 -- [Caltech 256](/../datasets/classify/caltech256.md):Caltech 101 的扩展版本,具有 256 个对象类别和更具挑战性的图像。 -- [CIFAR-10](/../datasets/classify/cifar10.md):包含 60K 32x32 彩色图像的数据集,分为 10 个类别,每个类别有 6K 图像。 -- [CIFAR-100](/../datasets/classify/cifar100.md):CIFAR-10 的扩展版本,具有 100 个对象类别和每类 600 个图像。 -- [Fashion-MNIST](/../datasets/classify/fashion-mnist.md):包含 70,000 张灰度图像的数据集,图像来自 10 个时尚类别,用于图像分类任务。 -- [ImageNet](/../datasets/classify/imagenet.md):一个大型的用于对象检测和图像分类的数据集,包含超过 1400 万图像和 2 万个类别。 -- [ImageNet-10](/../datasets/classify/imagenet10.md):ImageNet 的一个较小子集,包含 10 个类别,用于更快速的实验和测试。 -- [Imagenette](/../datasets/classify/imagenette.md):ImageNet 的一个较小子集,其中包含 10 个容易区分的类别,用于更快速的训练和测试。 -- [Imagewoof](/../datasets/classify/imagewoof.md):ImageNet 的一个更具挑战性的子集,包含 10 个狗品种类别用于图像分类任务。 -- [MNIST](/../datasets/classify/mnist.md):包含 70,000 张手写数字灰度图像的数据集,用于图像分类任务。 - -## [定向边界框 (OBB)](/../datasets/obb/index.md) - -定向边界框 (OBB) 是一种计算机视觉方法,用于使用旋转的边界框检测图像中的倾斜对象,常应用于航空和卫星图像。 - -- [DOTAv2](/../datasets/obb/dota-v2.md):一个流行的 OBB 航拍图像数据集,拥有 170 万个实例和 11,268 张图像。 - -## [多对象跟踪](/../datasets/track/index.md) - -多对象跟踪是一种计算机视觉技术,涉及在视频序列中检测和跟踪多个对象的运动。 - -- [Argoverse](/../datasets/detect/argoverse.md):包含城市环境中的 3D 追踪和运动预测数据,并提供丰富的注释,适用于多对象跟踪任务。 -- [VisDrone](/../datasets/detect/visdrone.md):包含无人机拍摄图像中的对象检测和多对象跟踪数据的数据集,包含超过 1 万张图像和视频序列。 - -## 贡献新数据集 - -贡献一个新数据集需要几个步骤,来确保它与现有基础设施良好对齐。以下是必要的步骤: - -### 贡献新数据集的步骤 - -1. **收集图像**:收集属于数据集的图像。这些可能来自公共数据库或您自己的收藏。 - -2. **注释图像**:根据任务对这些图像进行边界框、分段或关键点的标记。 - -3. **导出注释**:将这些注释转换为 Ultralytics 支持的 YOLO `*.txt` 文件格式。 - -4. **组织数据集**:按正确的文件夹结构排列您的数据集。您应该有 `train/ ` 和 `val/` 顶级目录,在每个目录内,有 `images/` 和 `labels/` 子目录。 - - ``` - dataset/ - ├── train/ - │ ├── images/ - │ └── labels/ - └── val/ - ├── images/ - └── labels/ - ``` - -5. **创建一个 `data.yaml` 文件**:在数据集的根目录中,创建一个描述数据集的 `data.yaml` 文件,包括类别信息等必要内容。 - -6. **优化图像(可选)**:如果您想为了更高效的处理而减小数据集的大小,可以使用以下代码来优化图像。这不是必需的,但推荐用于减小数据集大小和加快下载速度。 - -7. **压缩数据集**:将整个数据集文件夹压缩成一个 zip 文件。 - -8. **文档和 PR**:创建描述您的数据集和它如何融入现有框架的文档页面。之后,提交一个 Pull Request (PR)。更多关于如何提交 PR 的详细信息,请参照 [Ultralytics 贡献指南](https://docs.ultralytics.com/help/contributing)。 - -### 优化和压缩数据集的示例代码 - -!!! Example "优化和压缩数据集" - - === "Python" - - ```python - from pathlib import Path - from ultralytics.data.utils import compress_one_image - from ultralytics.utils.downloads import zip_directory - - # 定义数据集目录 - path = Path('path/to/dataset') - - # 优化数据集中的图像(可选) - for f in path.rglob('*.jpg'): - compress_one_image(f) - - # 将数据集压缩成 'path/to/dataset.zip' - zip_directory(path) - ``` - -通过遵循这些步骤,您可以贡献一个与 Ultralytics 现有结构良好融合的新数据集。 diff --git a/docs/zh/index.md b/docs/zh/index.md deleted file mode 100644 index 4065444188d..00000000000 --- a/docs/zh/index.md +++ /dev/null @@ -1,85 +0,0 @@ ---- -comments: true -description: 探索Ultralytics YOLOv8的完整指南,这是一个高速、高精度的目标检测和图像分割模型。包括安装、预测、训练教程等。 -keywords: Ultralytics, YOLOv8, 目标检测, 图像分割, 机器学习, 深度学习, 计算机视觉, YOLOv8安装, YOLOv8预测, YOLOv8训练, YOLO历史, YOLO许可 ---- - -# Ultralytics 中文文档 - -
-

- - Ultralytics YOLO banner -

- Ultralytics GitHub - space - Ultralytics LinkedIn - space - Ultralytics Twitter - space - Ultralytics YouTube - space - Ultralytics TikTok - space - Ultralytics Instagram - space - Ultralytics Discord -
-
- Ultralytics CI - Ultralytics Code Coverage - YOLOv8 Citation - Docker Pulls - Discord -
- Run on Gradient - Open In Colab - Open In Kaggle -
- -介绍 [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics),这是备受好评的实时目标检测和图像分割模型的最新版本。YOLOv8基于深度学习和计算机视觉的前沿进展,提供了无与伦比的速度和准确性表现。它的精简设计使其适用于各种应用,并且可以轻松适应不同的硬件平台,从边缘设备到云API。 - -探索YOLOv8文档,这是一个全面的资源,旨在帮助您理解并利用其功能和能力。无论您是经验丰富的机器学习从业者还是新入行者,该中心旨在最大化YOLOv8在您的项目中的潜力。 - -## 从哪里开始 - -- **安装** `ultralytics` 并通过 pip 在几分钟内开始运行   [:material-clock-fast: 开始使用](quickstart.md){ .md-button } -- **预测** 使用YOLOv8预测新的图像和视频   [:octicons-image-16: 在图像上预测](modes/predict.md){ .md-button } -- **训练** 在您自己的自定义数据集上训练新的YOLOv8模型   [:fontawesome-solid-brain: 训练模型](modes/train.md){ .md-button } -- **探索** YOLOv8的任务,如分割、分类、姿态和跟踪   [:material-magnify-expand: 探索任务](tasks/index.md){ .md-button } - -

-
- -
- 观看:Google Colab中如何训练您的自定义数据集上的YOLOv8模型。 -

- -## YOLO:简史 - -[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once),由华盛顿大学的Joseph Redmon和Ali Farhadi开发的流行目标检测和图像分割模型,于2015年推出,由于其高速和准确性而迅速流行。 - -- [YOLOv2](https://arxiv.org/abs/1612.08242) 在2016年发布,通过引入批量归一化、锚框和维度聚类来改进了原始模型。 -- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf) 在2018年推出,进一步增强了模型的性能,使用了更高效的主干网络、多个锚点和空间金字塔池化。 -- [YOLOv4](https://arxiv.org/abs/2004.10934) 在2020年发布,引入了Mosaic数据增强、新的无锚检测头和新的损失函数等创新功能。 -- [YOLOv5](https://github.com/ultralytics/yolov5) 进一步改进了模型的性能,并增加了新功能,如超参数优化、集成实验跟踪和自动导出到常用的导出格式。 -- [YOLOv6](https://github.com/meituan/YOLOv6) 在2022年由[美团](https://about.meituan.com/)开源,现在正在该公司的许多自动送货机器人中使用。 -- [YOLOv7](https://github.com/WongKinYiu/yolov7) 在COCO关键点数据集上添加了额外的任务,如姿态估计。 -- [YOLOv8](https://github.com/ultralytics/ultralytics) 是Ultralytics的YOLO的最新版本。作为一种前沿、最先进(SOTA)的模型,YOLOv8在之前版本的成功基础上引入了新功能和改进,以提高性能、灵活性和效率。YOLOv8支持全范围的视觉AI任务,包括[检测](https://docs.ultralytics.com/tasks/detect/), [分割](https://docs.ultralytics.com/tasks/segment/), [姿态估计](https://docs.ultralytics.com/tasks/pose/), [跟踪](https://docs.ultralytics.com/modes/track/), 和[分类](https://docs.ultralytics.com/tasks/classify/)。这种多功能性使用户能够利用YOLOv8的功能应对多种应用和领域的需求。 - -## YOLO许可证:Ultralytics YOLO是如何授权的? - -Ultralytics提供两种许可选项以适应不同的使用场景: - -- **AGPL-3.0许可证**:这种[OSI-approved](https://opensource.org/licenses/)开源许可证非常适合学生和爱好者,促进了开放的合作和知识共享。更多详细信息请参阅[LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE)文件。 -- **企业许可证**:这种许可证设计用于商业用途,允许将Ultralytics软件和AI模型无缝集成到商业商品和服务中,绕过AGPL-3.0的开源要求。如果您的场景涉及将我们的解决方案嵌入到商业产品中,请通过[Ultralytics Licensing](https://ultralytics.com/license)联系我们。 - -我们的授权策略旨在确保我们的开源项目的任何改进都能回馈到社区。我们十分珍视开源原则❤️,我们的使命是确保我们的贡献能够以对所有人有益的方式被利用和拓展。 - ---- - -**注意**:我们正在努力为我们的文档页面提供中文文档,并希望在接下来的几个月内发布。请密切关注我们的更新,并感谢您的耐心等待🙏。 diff --git a/docs/zh/models/fast-sam.md b/docs/zh/models/fast-sam.md deleted file mode 100644 index ab7f269b803..00000000000 --- a/docs/zh/models/fast-sam.md +++ /dev/null @@ -1,193 +0,0 @@ ---- -comments: true -description: FastSAM是一种基于卷积神经网络的实时图像对象分割解决方案。它提供了卓越的用户交互功能、计算效率以及适用于多种视觉任务的特性。 -keywords: FastSAM, 机器学习, 基于卷积神经网络的解决方案, 图像对象分割, 实时解决方案, Ultralytics, 视觉任务, 图像处理, 工业应用, 用户交互 ---- - -# Fast Segment Anything Model(FastSAM) - -Fast Segment Anything Model(FastSAM)是一种创新的实时卷积神经网络(CNN)模型,用于图像中的任意对象分割任务。该任务旨在根据各种可能的用户交互提示,对图像中的任意对象进行分割。FastSAM在保持具备竞争性能的同时,显著降低了计算需求,使其成为各种视觉任务的实用选择。 - -![Fast Segment Anything Model(FastSAM)架构概述](https://user-images.githubusercontent.com/26833433/248551984-d98f0f6d-7535-45d0-b380-2e1440b52ad7.jpg) - -## 概述 - -FastSAM旨在解决[Segment Anything Model(SAM)](sam.md)的局限性,SAM是一种计算资源需求很高的Transformer模型。FastSAM将任意对象分割任务拆分为两个顺序阶段:所有实例分割和提示引导选择。第一阶段使用[YOLOv8-seg](../tasks/segment.md)生成图像中所有实例的分割掩码。在第二阶段,输出与提示对应的感兴趣区域。 - -## 主要特点 - -1. **实时解决方案:** FastSAM利用CNN的计算效率提供了图像中任意对象分割任务的实时解决方案,适用于需要快速结果的工业应用。 - -2. **高效和高性能:** FastSAM在显著降低计算和资源需求的同时,不会降低性能质量。它与SAM具有相当的性能,但计算资源大幅减少,能够实现实时应用。 - -3. **提示引导分割:** FastSAM可以通过各种可能的用户交互提示来分割图像中的任意对象,提供了不同场景下的灵活性和适应性。 - -4. **基于YOLOv8-seg:** FastSAM基于[YOLOv8-seg](../tasks/segment.md),是一种配备实例分割分支的目标检测器。这使得它能够有效地生成图像中所有实例的分割掩码。 - -5. **基准测试中具有竞争力的结果:** 在MS COCO的对象提议任务中,FastSAM在单个NVIDIA RTX 3090上以显著更快的速度获得高分,与[SAM](sam.md)相比,显示出其效率和能力。 - -6. **实际应用:** 提出的方法以非常高的速度为大量视觉任务提供了一种新的实用解决方案,比当前方法快十几倍乃至数百倍。 - -7. **模型压缩的可行性:** FastSAM通过引入人工先验到结构中,展示了通过路径显著减少计算工作量的可行性,为通用视觉任务的大型模型架构开辟了新的可能性。 - -## 可用模型、支持的任务和操作模式 - -该表格列出了可用的模型及其特定的预训练权重,它们支持的任务以及它们与不同操作模式(如[推断](../modes/predict.md)、[验证](../modes/val.md)、[训练](../modes/train.md)和[导出](../modes/export.md))的兼容性,由支持的模式用✅表示,不支持的模式用❌表示。 - -| 模型类型 | 预训练权重 | 支持的任务 | 推断 | 验证 | 训练 | 导出 | -|-----------|----------------|-----------------------------|----|----|----|----| -| FastSAM-s | `FastSAM-s.pt` | [实例分割](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| FastSAM-x | `FastSAM-x.pt` | [实例分割](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## 用法示例 - -FastSAM模型很容易集成到Python应用程序中。Ultralytics提供了用户友好的Python API和CLI命令以简化开发。 - -### 预测用法 - -要对图像进行对象检测,可以使用下面的`predict`方法: - -!!! Example "示例" - - === "Python" - ```python - from ultralytics import FastSAM - from ultralytics.models.fastsam import FastSAMPrompt - - # 定义推断源 - source = 'path/to/bus.jpg' - - # 创建FastSAM模型 - model = FastSAM('FastSAM-s.pt') # 或 FastSAM-x.pt - - # 在图像上运行推断 - everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) - - # 准备Prompt Process对象 - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') - - # Everything提示 - ann = prompt_process.everything_prompt() - - # Bbox默认形状[0,0,0,0] -> [x1,y1,x2,y2] - ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) - - # 文本提示 - ann = prompt_process.text_prompt(text='a photo of a dog') - - # 点提示 - # 默认点[[0,0]] [[x1,y1],[x2,y2]] - # 默认point_label [0] [1,0] 0:背景,1:前景 - ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') - ``` - - === "CLI" - ```bash - # 加载FastSAM模型并使用该模型分割图像中的所有对象 - yolo segment predict model=FastSAM-s.pt source=path/to/bus.jpg imgsz=640 - ``` - -此片段演示了加载预训练模型并在图像上进行预测的简单性。 - -### 验证用法 - -可以采用以下方式对数据集上的模型进行验证: - -!!! Example "示例" - - === "Python" - ```python - from ultralytics import FastSAM - - # 创建FastSAM模型 - model = FastSAM('FastSAM-s.pt') # 或 FastSAM-x.pt - - # 验证模型 - results = model.val(data='coco8-seg.yaml') - ``` - - === "CLI" - ```bash - # 加载FastSAM模型,并在COCO8示例数据集上进行验证,图像大小为640 - yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640 - ``` - -请注意,FastSAM仅支持检测和分割单个类别的对象。这意味着它将识别和分割所有对象为相同的类别。因此,在准备数据集时,需要将所有对象的类别ID转换为0。 - -## FastSAM官方用法 - -FastSAM也可以直接从[https://github.com/CASIA-IVA-Lab/FastSAM](https://github.com/CASIA-IVA-Lab/FastSAM)存储库中获取。以下是您可能采取的使用FastSAM的典型步骤的简要概述: - -### 安装 - -1. 克隆FastSAM存储库: - ```shell - git clone https://github.com/CASIA-IVA-Lab/FastSAM.git - ``` - -2. 创建并激活一个带有Python 3.9的Conda环境: - ```shell - conda create -n FastSAM python=3.9 - conda activate FastSAM - ``` - -3. 进入克隆的存储库并安装所需的软件包: - ```shell - cd FastSAM - pip install -r requirements.txt - ``` - -4. 安装CLIP模型: - ```shell - pip install git+https://github.com/openai/CLIP.git - ``` - -### 示例用法 - -1. 下载[模型检查点](https://drive.google.com/file/d/1m1sjY4ihXBU1fZXdQ-Xdj-mDltW-2Rqv/view?usp=sharing)。 - -2. 使用FastSAM进行推断。示例命令: - - - 在图像中分割所有内容: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg - ``` - - - 使用文本提示分割特定对象: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "the yellow dog" - ``` - - - 在边界框中分割对象(以xywh格式提供边界框坐标): - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]" - ``` - - - 在特定点附近分割对象: - ```shell - python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]" - ``` - -此外,您可以在[Colab演示](https://colab.research.google.com/drive/1oX14f6IneGGw612WgVlAiy91UHwFAvr9?usp=sharing)上尝试FastSAM,或在[HuggingFace Web演示](https://huggingface.co/spaces/An-619/FastSAM)上进行可视化体验。 - -## 引用和致谢 - -我们要感谢FastSAM作者在实时实例分割领域作出的重要贡献: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{zhao2023fast, - title={Fast Segment Anything}, - author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang}, - year={2023}, - eprint={2306.12156}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -可在[arXiv](https://arxiv.org/abs/2306.12156)上找到原始的FastSAM论文。作者已经公开了他们的工作,代码库可以在[GitHub](https://github.com/CASIA-IVA-Lab/FastSAM)上获取。我们感谢他们在推动该领域以及使他们的工作对更广泛的社区可访问方面所做的努力。 diff --git a/docs/zh/models/index.md b/docs/zh/models/index.md deleted file mode 100644 index a9a29db8ade..00000000000 --- a/docs/zh/models/index.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: 探索 Ultralytics 支持的多样化 YOLO 系列、SAM、MobileSAM、FastSAM、YOLO-NAS 和 RT-DETR 模型。开启您的 CLI 和 Python 使用示例之旅。 -keywords: Ultralytics, 文档, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, 模型, 架构, Python, CLI ---- - -# Ultralytics 支持的模型 - -欢迎来到 Ultralytics 的模型文档!我们提供多种模型的支持,每种模型都针对特定任务量身定做,如[对象检测](../tasks/detect.md)、[实例分割](../tasks/segment.md)、[图像分类](../tasks/classify.md)、[姿态估计](../tasks/pose.md)以及[多对象跟踪](../modes/track.md)。如果您有兴趣将您的模型架构贡献给 Ultralytics,请查看我们的[贡献指南](../../help/contributing.md)。 - -!!! Note "注意" - - 🚧 我们的多语言文档目前正在建设中,我们正在努力进行完善。感谢您的耐心等待!🙏 - -## 特色模型 - -以下是一些关键模型的介绍: - -1. **[YOLOv3](yolov3.md)**:由 Joseph Redmon 最初开发的 YOLO 模型家族的第三版,以其高效的实时对象检测能力而闻名。 -2. **[YOLOv4](yolov4.md)**:由 Alexey Bochkovskiy 在 2020 年发布的 YOLOv3 的 darknet 原生更新版本。 -3. **[YOLOv5](yolov5.md)**:Ultralytics 改进的 YOLO 架构版本,与先前版本相比,提供了更好的性能和速度权衡。 -4. **[YOLOv6](yolov6.md)**:由[美团](https://about.meituan.com/)在 2022 年发布,用于公司多个自主送货机器人中。 -5. **[YOLOv7](yolov7.md)**:YOLOv4 作者在 2022 年发布的更新版 YOLO 模型。 -6. **[YOLOv8](yolov8.md) NEW 🚀**:YOLO 家族的最新版本,具备实例分割、姿态/关键点估计和分类等增强能力。 -7. **[Segment Anything Model (SAM)](sam.md)**:Meta 的 Segment Anything Model (SAM)。 -8. **[Mobile Segment Anything Model (MobileSAM)](mobile-sam.md)**:由庆熙大学开发的移动应用 MobileSAM。 -9. **[Fast Segment Anything Model (FastSAM)](fast-sam.md)**:中国科学院自动化研究所图像与视频分析组开发的 FastSAM。 -10. **[YOLO-NAS](yolo-nas.md)**:YOLO 神经网络结构搜索 (NAS) 模型。 -11. **[Realtime Detection Transformers (RT-DETR)](rtdetr.md)**:百度 PaddlePaddle 实时检测变换器 (RT-DETR) 模型。 - -

-
- -
- 观看: 使用 Ultralytics YOLO 模型在几行代码中运行。 -

- -## 入门:使用示例 - -此示例提供了简单的 YOLO 训练和推理示例。有关这些和其他[模式](../modes/index.md)的完整文档,请查看[Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md) 和 [Export](../modes/export.md) 文档页面。 - -请注意,以下示例适用于对象检测的 YOLOv8 [Detect](../tasks/detect.md) 模型。有关其他支持任务的详细信息,请查看[Segment](../tasks/segment.md)、[Classify](../tasks/classify.md) 和 [Pose](../tasks/pose.md) 文档。 - -!!! Example "示例" - - === "Python" - - 可将 PyTorch 预训练的 `*.pt` 模型以及配置文件 `*.yaml` 传入 `YOLO()`、`SAM()`、`NAS()` 和 `RTDETR()` 类,以在 Python 中创建模型实例: - - ```python - from ultralytics import YOLO - - # 加载 COCO 预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 显示模型信息(可选) - model.info() - - # 在 COCO8 示例数据集上训练模型 100 个周期 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 使用 YOLOv8n 模型对 'bus.jpg' 图像进行推理 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - CLI 命令可直接运行模型: - - ```bash - # 加载 COCO 预训练的 YOLOv8n 模型,并在 COCO8 示例数据集上训练 100 个周期 - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # 加载 COCO 预训练的 YOLOv8n 模型,并对 'bus.jpg' 图像进行推理 - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## 贡献新模型 - -有兴趣将您的模型贡献给 Ultralytics 吗?太好了!我们始终欢迎扩展我们的模型投资组合。 - -1. **Fork 仓库**:从 Fork [Ultralytics GitHub 仓库](https://github.com/ultralytics/ultralytics) 开始。 - -2. **克隆您的 Fork**:将您的 Fork 克隆到您的本地机器,并创建一个新的分支进行工作。 - -3. **实现您的模型**:按照我们在[贡献指南](../../help/contributing.md)中提供的编码标准和指南添加您的模型。 - -4. **彻底测试**:确保彻底测试您的模型,无论是独立测试还是作为流水线的一部分。 - -5. **创建拉取请求**:一旦您对您的模型满意,就创建一个拉取请求以供主仓库审查。 - -6. **代码审查与合并**:经过审查,如果您的模型符合我们的标准,它将被合并到主仓库中。 - -有关详细步骤,请参阅我们的[贡献指南](../../help/contributing.md)。 diff --git a/docs/zh/models/mobile-sam.md b/docs/zh/models/mobile-sam.md deleted file mode 100644 index 98b191dbd98..00000000000 --- a/docs/zh/models/mobile-sam.md +++ /dev/null @@ -1,116 +0,0 @@ ---- -comments: true -description: 了解有关MobileSAM的更多信息,包括其实现、与原始SAM的比较,以及在Ultralytics框架中如何下载和测试它。立即改进您的移动应用程序。 -keywords: MobileSAM, Ultralytics, SAM, 移动应用, Arxiv, GPU, API, 图像编码器, 蒙版解码器, 模型下载, 测试方法 ---- - -![MobileSAM Logo](https://github.com/ChaoningZhang/MobileSAM/blob/master/assets/logo2.png?raw=true) - -# 移动端细分模型(MobileSAM) - -MobileSAM 论文现在可以在 [arXiv](https://arxiv.org/pdf/2306.14289.pdf) 上找到。 - -可以通过此 [演示链接](https://huggingface.co/spaces/dhkim2810/MobileSAM) 访问在 CPU 上运行的 MobileSAM 演示。在 Mac i5 CPU 上,性能大约需要 3 秒。在 Hugging Face 的演示中,界面和性能较低的 CPU 导致响应较慢,但它仍然能有效地工作。 - -MobileSAM 已在 Grounding-SAM、AnyLabeling 和 Segment Anything in 3D 等多个项目中实施。您可以在 [Grounding-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything)、[AnyLabeling](https://github.com/vietanhdev/anylabeling) 和 [Segment Anything in 3D](https://github.com/Jumpat/SegmentAnythingin3D) 上找到这些项目。 - -MobileSAM 使用单个 GPU 在不到一天的时间内对 10 万个数据集(原始图像的 1%)进行训练。关于此训练的代码将在将来提供。 - -## 可用模型、支持的任务和操作模式 - -以下表格显示了可用模型及其具体的预训练权重,它们支持的任务以及与不同操作模式([预测](../modes/predict.md)、[验证](../modes/val.md)、[训练](../modes/train.md) 和 [导出](../modes/export.md))的兼容性,其中支持的模式用 ✅ 表示,不支持的模式用 ❌ 表示。 - -| 模型类型 | 预训练权重 | 支持的任务 | 预测 | 验证 | 训练 | 导出 | -|-----------|-----------------|-----------------------------|----|----|----|----| -| MobileSAM | `mobile_sam.pt` | [实例分割](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## 从 SAM 迁移到 MobileSAM - -由于 MobileSAM 保留了与原始 SAM 相同的流程,我们已将原始 SAM 的预处理、后处理和所有其他接口整合到 MobileSAM 中。因此,目前使用原始 SAM 的用户可以以最小的努力迁移到 MobileSAM。 - -MobileSAM 在性能上与原始 SAM 相当,并保留了相同的流程,只是更改了图像编码器。具体而言,我们用较小的 Tiny-ViT(5M)替换了原始的笨重的 ViT-H 编码器(632M)。在单个 GPU 上,MobileSAM 每张图片的运行时间约为 12 毫秒:图像编码器约 8 毫秒,蒙版解码器约 4 毫秒。 - -以下表格比较了基于 ViT 的图像编码器: - -| 图像编码器 | 原始 SAM | MobileSAM | -|-------|--------|-----------| -| 参数 | 611M | 5M | -| 速度 | 452ms | 8ms | - -原始 SAM 和 MobileSAM 均使用相同的提示引导蒙版解码器: - -| 蒙版解码器 | 原始 SAM | MobileSAM | -|-------|--------|-----------| -| 参数 | 3.876M | 3.876M | -| 速度 | 4ms | 4ms | - -以下是整个流程的比较: - -| 整个流程(编码器+解码器) | 原始 SAM | MobileSAM | -|---------------|--------|-----------| -| 参数 | 615M | 9.66M | -| 速度 | 456ms | 12ms | - -MobileSAM 和原始 SAM 的性能通过使用点和框作为提示进行演示。 - -![点作为提示的图像](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -![框作为提示的图像](https://github.com/raw/ChaoningZhang/MobileSAM/master/assets/mask_box.jpg?raw=true) - -MobileSAM 的性能优于当前的 FastSAM,尺寸大约减小了 5 倍,速度快了约 7 倍。有关更多详细信息,请访问 [MobileSAM 项目页面](https://github.com/ChaoningZhang/MobileSAM)。 - -## 在 Ultralytics 中测试 MobileSAM - -与原始 SAM 一样,我们在 Ultralytics 中提供了一种简单的测试方法,包括点提示和框提示的模式。 - -### 模型下载 - -您可以在 [这里](https://github.com/ChaoningZhang/MobileSAM/blob/master/weights/mobile_sam.pt) 下载模型。 - -### 点提示 - -!!! Example "示例" - - === "Python" - ```python - from ultralytics import SAM - - # 载入模型 - model = SAM('mobile_sam.pt') - - # 基于点提示预测一个分段 - model.predict('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -### 框提示 - -!!! Example "示例" - - === "Python" - ```python - from ultralytics import SAM - - # 载入模型 - model = SAM('mobile_sam.pt') - - # 基于框提示预测一个分段 - model.predict('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - ``` - -我们使用相同的 API 实现了 `MobileSAM` 和 `SAM`。有关更多用法信息,请参阅 [SAM 页面](sam.md)。 - -## 引用和鸣谢 - -如果您在研究或开发工作中发现 MobileSAM 对您有用,请考虑引用我们的论文: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{mobile_sam, - title={Faster Segment Anything: Towards Lightweight SAM for Mobile Applications}, - author={Zhang, Chaoning and Han, Dongshen and Qiao, Yu and Kim, Jung Uk and Bae, Sung Ho and Lee, Seungkyu and Hong, Choong Seon}, - journal={arXiv preprint arXiv:2306.14289}, - year={2023} - } diff --git a/docs/zh/models/rtdetr.md b/docs/zh/models/rtdetr.md deleted file mode 100644 index e6940d1aa88..00000000000 --- a/docs/zh/models/rtdetr.md +++ /dev/null @@ -1,93 +0,0 @@ ---- -comments: true -description: 了解百度的RT-DETR,一种基于Vision Transformers的高效灵活的实时目标检测器,包括预训练模型的特性和优势。 -keywords: RT-DETR、Baidu、Vision Transformers、目标检测、实时表现、CUDA、TensorRT、IoU感知的查询选择、Ultralytics、Python API、PaddlePaddle ---- - -# 百度的RT-DETR:基于Vision Transformers的实时目标检测器 - -## 概览 - -百度开发的实时检测变换器(RT-DETR)是一种尖端的端到端目标检测器,具有实时性能和高准确性。它利用Vision Transformers (ViT) 的强大功能,通过解耦内部尺度交互和跨尺度融合,高效处理多尺度特征。RT-DETR非常灵活适应各种推断速度的调整,支持使用不同的解码器层而无需重新训练。该模型在CUDA和TensorRT等加速后端上表现出色,超越了许多其他实时目标检测器。 - -![模型示例图像](https://user-images.githubusercontent.com/26833433/238963168-90e8483f-90aa-4eb6-a5e1-0d408b23dd33.png) -**百度的RT-DETR概览** 百度的RT-DETR模型架构图显示了骨干网的最后三个阶段{S3, S4, S5}作为编码器输入。高效的混合编码器通过内部尺度特征交互(AIFI)和跨尺度特征融合模块(CCFM)将多尺度特征转换为图像特征序列。采用IoU感知的查询选择来选择一定数量的图像特征作为解码器的初始对象查询。最后,解码器通过辅助预测头迭代优化对象查询,生成框和置信度得分。([文章来源](https://arxiv.org/pdf/2304.08069.pdf)) - -### 主要特点 - -- **高效的混合编码器:** 百度的RT-DETR使用高效的混合编码器,通过解耦内部尺度交互和跨尺度融合来处理多尺度特征。这种独特的Vision Transformers架构降低了计算成本,实现实时目标检测。 -- **IoU感知的查询选择:** 百度的RT-DETR利用IoU感知的查询选择改进了对象查询的初始化。这使得模型能够聚焦于场景中最相关的对象,提高了检测准确性。 -- **灵活的推断速度:** 百度的RT-DETR支持使用不同的解码器层灵活调整推断速度,无需重新训练。这种适应性有助于在各种实时目标检测场景中实际应用。 - -## 预训练模型 - -Ultralytics Python API提供了不同尺度的预训练PaddlePaddle RT-DETR模型: - -- RT-DETR-L: 在COCO val2017上达到53.0%的AP,在T4 GPU上达到114 FPS -- RT-DETR-X: 在COCO val2017上达到54.8%的AP,在T4 GPU上达到74 FPS - -## 使用示例 - -此示例提供了简单的RT-DETR训练和推断示例。有关这些和其他[模式](../modes/index.md)的完整文档,请参阅[预测](../modes/predict.md)、[训练](../modes/train.md)、[验证](../modes/val.md)和[导出](../modes/export.md)文档页面。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import RTDETR - - # 加载预训练的COCO RT-DETR-l模型 - model = RTDETR('rtdetr-l.pt') - - # 显示模型信息(可选) - model.info() - - # 使用COCO8示例数据集对模型进行100个epoch的训练 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 使用RT-DETR-l模型在'bus.jpg'图像上运行推断 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - ```bash - # 加载预训练的COCO RT-DETR-l模型,并在COCO8示例数据集上进行100个epoch的训练 - yolo train model=rtdetr-l.pt data=coco8.yaml epochs=100 imgsz=640 - - # 加载预训练的COCO RT-DETR-l模型,并在'bus.jpg'图像上运行推断 - yolo predict model=rtdetr-l.pt source=path/to/bus.jpg - ``` - -## 支持的任务和模式 - -该表格提供了各个模型类型、具体的预训练权重、各个模型支持的任务以及支持的各种模式([训练](../modes/train.md)、[验证](../modes/val.md)、[预测](../modes/predict.md)、[导出](../modes/export.md)),其中✅表示支持。 - -| 模型类型 | 预训练权重 | 支持的任务 | 推断 | 验证 | 训练 | 导出 | -|---------------------|---------------|----------------------------|----|----|----|----| -| RT-DETR-Large | `rtdetr-l.pt` | [目标检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| RT-DETR-Extra-Large | `rtdetr-x.pt` | [目标检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -## 引用和致谢 - -如果你在研究或开发中使用了百度的RT-DETR,请引用[原始论文](https://arxiv.org/abs/2304.08069): - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{lv2023detrs, - title={DETRs Beat YOLOs on Real-time Object Detection}, - author={Wenyu Lv and Shangliang Xu and Yian Zhao and Guanzhong Wang and Jinman Wei and Cheng Cui and Yuning Du and Qingqing Dang and Yi Liu}, - year={2023}, - eprint={2304.08069}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -我们要感谢百度和[PaddlePaddle](https://github.com/PaddlePaddle/PaddleDetection)团队为计算机视觉社区创建和维护了这个宝贵的资源。非常感谢他们使用基于Vision Transformers的实时目标检测器RT-DETR在该领域做出的贡献。 - -*keywords: RT-DETR、Transformer、ViT、Vision Transformers、Baidu RT-DETR、PaddlePaddle、Paddle Paddle RT-DETR,实时目标检测、基于Vision Transformers的目标检测、预训练的PaddlePaddle RT-DETR模型、百度RT-DETR的使用、Ultralytics Python API* diff --git a/docs/zh/models/sam.md b/docs/zh/models/sam.md deleted file mode 100644 index dc4b3f87b09..00000000000 --- a/docs/zh/models/sam.md +++ /dev/null @@ -1,226 +0,0 @@ ---- -comments: true -description: 探索来自Ultralytics的最前沿的Segment Anything Model (SAM),它可以进行实时图像分割。了解其可提示分割、零样本性能以及如何使用它。 -keywords: Ultralytics,图像分割,Segment Anything Model,SAM,SA-1B数据集,实时性能,零样本转移,目标检测,图像分析,机器学习 ---- - -# Segment Anything Model (SAM) - -欢迎来到使用Segment Anything Model (SAM) 进行图像分割的前沿。这个革命性的模型通过引入可以提示的实时图像分割,树立了领域新的标准。 - -## SAM的介绍:Segment Anything Model - -Segment Anything Model (SAM) 是一种先进的图像分割模型,可以进行可提示的分割,为图像分析任务提供了前所未有的灵活性。SAM 是Segment Anything 项目的核心,该项目引入了一种新颖的模型、任务和图像分割数据集。 - -SAM 先进的设计允许它在没有先验知识的情况下适应新的图像分布和任务,这个特点被称为零样本转移。SAM 在包含11亿个掩模的SA-1B数据集上进行训练,该数据集包含超过1100万张精心策划的图像,SAM 在零样本任务中表现出色,许多情况下超过了之前的完全监督结果。 - -![数据集示例图像](https://user-images.githubusercontent.com/26833433/238056229-0e8ffbeb-f81a-477e-a490-aff3d82fd8ce.jpg) -从我们新引入的SA-1B数据集中选择的示例图像,显示了覆盖的掩模。SA-1B包含了1100万个多样化、高分辨率、许可的图像和11亿个高质量的分割掩模。这些掩模由SAM完全自动地进行了注释,经过人工评级和大量实验的验证,它们具有高质量和多样性。图像按每个图像的掩模数量进行分组以进行可视化(平均每个图像有∼100个掩模)。 - -## Segment Anything Model (SAM) 的主要特点 - -- **可提示的分割任务**:SAM 的设计考虑了可提示的分割任务,它可以从给定的提示中生成有效的分割掩模,例如指示对象的空间或文本线索。 -- **先进的架构**:Segment Anything Model 使用强大的图像编码器、提示编码器和轻量的掩模解码器。这种独特的架构使得分段任务中的提示灵活、实时掩模计算和模糊感知成为可能。 -- **SA-1B 数据集**:由Segment Anything 项目引入的 SA-1B 数据集包含超过11亿个掩模的1100万张图像。作为迄今为止最大的分割数据集,它为 SAM 提供了一个多样化的大规模训练数据源。 -- **零样本性能**:SAM 在各种分割任务中展现出出色的零样本性能,使得它成为一个可以立即使用的工具,对于各种应用来说,对提示工程的需求很小。 - -如果您想了解更多关于Segment Anything Model 和 SA-1B 数据集的详细信息,请访问[Segment Anything 网站](https://segment-anything.com)并查看研究论文[Segment Anything](https://arxiv.org/abs/2304.02643)。 - -## 可用模型、支持的任务和操作模式 - -这个表格展示了可用模型及其特定的预训练权重,它们支持的任务,以及它们与不同操作模式([Inference](../modes/predict.md)、[Validation](../modes/val.md)、[Training](../modes/train.md) 和 [Export](../modes/export.md))的兼容性,用 ✅ 表示支持的模式,用 ❌ 表示不支持的模式。 - -| 模型类型 | 预训练权重 | 支持的任务 | 推断 | 验证 | 训练 | 导出 | -|-----------|------------|-----------------------------|----|----|----|----| -| SAM base | `sam_b.pt` | [实例分割](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | -| SAM large | `sam_l.pt` | [实例分割](../tasks/segment.md) | ✅ | ❌ | ❌ | ✅ | - -## 如何使用 SAM: 图像分割的多功能和强大 - -Segment Anything Model 可以用于多种下游任务,超越训练数据的范围。这包括边缘检测,目标提案生成,实例分割和初步的文本到掩模预测。通过 prompt 工程,SAM 可以快速适应新的任务和数据分布,以零样本的方式,确立其作为图像分割需求的多功能和强大工具。 - -### SAM 预测示例 - -!!! Example "使用提示进行分割" - - 使用给定的提示对图像进行分割。 - - === "Python" - - ```python - from ultralytics import SAM - - # 加载模型 - model = SAM('sam_b.pt') - - # 显示模型信息(可选) - model.info() - - # 使用边界框提示进行推断 - model('ultralytics/assets/zidane.jpg', bboxes=[439, 437, 524, 709]) - - # 使用点提示进行推断 - model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) - ``` - -!!! Example "分割整个图像" - - 分割整个图像。 - - === "Python" - - ```python - from ultralytics import SAM - - # 加载模型 - model = SAM('sam_b.pt') - - # 显示模型信息(可选) - model.info() - - # 进行推断 - model('path/to/image.jpg') - ``` - - === "CLI" - - ```bash - # 使用 SAM 模型进行推断 - yolo predict model=sam_b.pt source=path/to/image.jpg - ``` - -- 这里的逻辑是,如果您没有传入任何提示(边界框/点/掩模),则对整个图像进行分割。 - -!!! Example "SAMPredictor 示例" - - 这种方法可以设置图像一次,然后多次运行提示推断,而无需多次运行图像编码器。 - - === "提示推断" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # 创建 SAMPredictor - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # 设置图像 - predictor.set_image("ultralytics/assets/zidane.jpg") # 使用图像文件设置 - predictor.set_image(cv2.imread("ultralytics/assets/zidane.jpg")) # 使用 np.ndarray 设置 - results = predictor(bboxes=[439, 437, 524, 709]) - results = predictor(points=[900, 370], labels=[1]) - - # 重置图像 - predictor.reset_image() - ``` - - 通过附加参数对整个图像分割。 - - === "分割整个图像" - - ```python - from ultralytics.models.sam import Predictor as SAMPredictor - - # 创建 SAMPredictor - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model="mobile_sam.pt") - predictor = SAMPredictor(overrides=overrides) - - # 使用附加参数进行分割整个图像 - results = predictor(source="ultralytics/assets/zidane.jpg", crop_n_layers=1, points_stride=64) - ``` - -- 更多关于`分割整个图像`的附加参数,请查看[`Predictor/generate` 参考](../../../reference/models/sam/predict.md)。 - -## SAM 与 YOLOv8 的对比 - -在这里,我们将 Meta 最小的 SAM 模型 SAM-b 与 Ultralytics 的最小分割模型 [YOLOv8n-seg](../tasks/segment.md) 进行对比: - -| 模型 | 大小 | 参数 | 速度 (CPU) | -|------------------------------------------------|-----------------------|----------------------|------------------------| -| Meta's SAM-b | 358 MB | 94.7 M | 51096 ms/im | -| [MobileSAM](mobile-sam.md) | 40.7 MB | 10.1 M | 46122 ms/im | -| [FastSAM-s](fast-sam.md) with YOLOv8 backbone | 23.7 MB | 11.8 M | 115 ms/im | -| Ultralytics [YOLOv8n-seg](../tasks/segment.md) | **6.7 MB** (缩小了53.4倍) | **3.4 M** (缩小了27.9倍) | **59 ms/im** (加速了866倍) | - -这个对比显示了不同模型之间的模型大小和速度上数量级的差异。虽然 SAM 提供了自动分割的独特能力,但它不是与 YOLOv8 分割模型直接竞争的产品,后者体积更小、速度更快、效率更高。 - -在配备有16GB RAM的2023年 Apple M2 MacBook 上进行了测试。要重现这个测试: - -!!! Example "示例" - - === "Python" - ```python - from ultralytics import FastSAM, SAM, YOLO - - # 分析 SAM-b - model = SAM('sam_b.pt') - model.info() - model('ultralytics/assets') - - # 分析 MobileSAM - model = SAM('mobile_sam.pt') - model.info() - model('ultralytics/assets') - - # 分析 FastSAM-s - model = FastSAM('FastSAM-s.pt') - model.info() - model('ultralytics/assets') - - # 分析 YOLOv8n-seg - model = YOLO('yolov8n-seg.pt') - model.info() - model('ultralytics/assets') - ``` - -## 自动注释:创建分割数据集的快速路径 - -自动注释是 SAM 的一个关键功能,它允许用户使用预训练的检测模型生成一个[分割数据集](https://docs.ultralytics.com/datasets/segment)。这个功能可以通过自动生成大量图像的准确注释,绕过耗时的手动标注过程,从而快速获得高质量的分割数据集。 - -### 使用检测模型生成分割数据集 - -要使用Ultralytics框架对数据集进行自动注释,可以使用如下所示的 `auto_annotate` 函数: - -!!! Example "示例" - - === "Python" - ```python - from ultralytics.data.annotator import auto_annotate - - auto_annotate(data="path/to/images", det_model="yolov8x.pt", sam_model='sam_b.pt') - ``` - -| 参数 | 类型 | 描述 | 默认值 | -|------------|---------------|------------------------------------------|--------------| -| data | str | 包含要进行注释的图像的文件夹的路径。 | | -| det_model | str, 可选 | 预训练的 YOLO 检测模型,默认为 'yolov8x.pt'。 | 'yolov8x.pt' | -| sam_model | str, 可选 | 预训练的 SAM 分割模型,默认为 'sam_b.pt'。 | 'sam_b.pt' | -| device | str, 可选 | 在其上运行模型的设备,默认为空字符串(如果可用,则为 CPU 或 GPU)。 | | -| output_dir | str, None, 可选 | 保存注释结果的目录。默认为与 'data' 目录同级的 'labels' 目录。 | None | - -`auto_annotate` 函数接受您图像的路径,并提供了可选的参数用于指定预训练的检测和 SAM 分割模型、运行模型的设备,以及保存注释结果的输出目录。 - -使用预训练模型进行自动注释可以大大减少创建高质量分割数据集所需的时间和工作量。这个功能特别对于处理大量图像集合的研究人员和开发人员非常有益,因为它允许他们专注于模型的开发和评估,而不是手动注释。 - -## 引用和鸣谢 - -如果您在研究或开发中发现 SAM 对您有用,请考虑引用我们的论文: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{kirillov2023segment, - title={Segment Anything}, - author={Alexander Kirillov and Eric Mintun and Nikhila Ravi and Hanzi Mao and Chloe Rolland and Laura Gustafson and Tete Xiao and Spencer Whitehead and Alexander C. Berg and Wan-Yen Lo and Piotr Dollár and Ross Girshick}, - year={2023}, - eprint={2304.02643}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -我们要向 Meta AI 表示感谢,感谢他们为计算机视觉社区创建和维护了这个宝贵的资源。 - -*keywords: Segment Anything,Segment Anything Model,SAM,Meta SAM,图像分割,可提示分割,零样本性能,SA-1B数据集,先进架构,自动注释,Ultralytics,预训练模型,SAM base,SAM large,实例分割,计算机视觉,AI,人工智能,机器学习,数据注释,分割掩模,检测模型,YOLO检测模型,bibtex,Meta AI。* diff --git a/docs/zh/models/yolo-nas.md b/docs/zh/models/yolo-nas.md deleted file mode 100644 index d5475cdd52a..00000000000 --- a/docs/zh/models/yolo-nas.md +++ /dev/null @@ -1,121 +0,0 @@ ---- -comments: true -description: 探索详细的YOLO-NAS文档,这是一个更高级的物体检测模型。了解其特点、预训练模型、与Ultralytics Python API的使用等内容。 -keywords: YOLO-NAS, Deci AI, 物体检测, 深度学习, 神经架构搜索, Ultralytics Python API, YOLO模型, 预训练模型, 量化, 优化, COCO, Objects365, Roboflow 100 ---- - -# YOLO-NAS - -## 概述 - -由Deci AI开发,YOLO-NAS是一种开创性的物体检测基础模型。它是先进的神经架构搜索技术的产物,经过精心设计以解决之前YOLO模型的局限性。YOLO-NAS在量化支持和准确性-延迟权衡方面取得了重大改进,代表了物体检测领域的重大飞跃。 - -![模型示例图像](https://learnopencv.com/wp-content/uploads/2023/05/yolo-nas_COCO_map_metrics.png) -**YOLO-NAS概览。** YOLO-NAS采用量化感知块和选择性量化实现最佳性能。当将模型转换为INT8量化版本时,模型会经历较小的精度损失,比其他模型有显著改进。这些先进技术使得YOLO-NAS成为具有前所未有的物体检测能力和出色性能的卓越架构。 - -### 主要特点 - -- **量化友好基本块:** YOLO-NAS引入了一种新的基本块,对量化友好,解决了之前YOLO模型的一个重要局限性。 -- **高级训练和量化:** YOLO-NAS利用先进的训练方案和训练后量化以提高性能。 -- **AutoNAC优化和预训练:** YOLO-NAS利用AutoNAC优化,并在著名数据集(如COCO、Objects365和Roboflow 100)上进行了预训练。这种预训练使其非常适合生产环境中的下游物体检测任务。 - -## 预训练模型 - -通过Ultralytics提供的预训练YOLO-NAS模型,体验下一代物体检测的强大功能。这些模型旨在在速度和准确性方面提供出色的性能。根据您的需求,可以选择各种选项: - -| 模型 | mAP | 延迟(ms) | -|------------------|-------|--------| -| YOLO-NAS S | 47.5 | 3.21 | -| YOLO-NAS M | 51.55 | 5.85 | -| YOLO-NAS L | 52.22 | 7.87 | -| YOLO-NAS S INT-8 | 47.03 | 2.36 | -| YOLO-NAS M INT-8 | 51.0 | 3.78 | -| YOLO-NAS L INT-8 | 52.1 | 4.78 | - -每个模型变体均旨在在均衡平均精度(mAP)和延迟之间提供平衡,帮助您为性能和速度都进行优化的物体检测任务。 - -## 用法示例 - -通过我们的`ultralytics` python包,Ultralytics使得将YOLO-NAS模型集成到您的Python应用程序中变得容易。该包提供了一个用户友好的Python API,以简化流程。 - -以下示例展示了如何使用`ultralytics`包与YOLO-NAS模型进行推理和验证: - -### 推理和验证示例 - -这个示例中,我们在COCO8数据集上验证YOLO-NAS-s。 - -!!! 例子 - - 以下示例为YOLO-NAS提供了简单的推理和验证代码。有关处理推理结果的方法,请参见[Predict](../modes/predict.md)模式。有关使用其他模式的YOLO-NAS的方法,请参见[Val](../modes/val.md)和[Export](../modes/export.md)。`ultralytics`包中的YOLO-NAS不支持训练。 - - === "Python" - - 可以将预训练的PyTorch `*.pt`模型文件传递给`NAS()`类以在python中创建一个模型实例: - - ```python - from ultralytics import NAS - - # 加载一个在COCO上预训练的YOLO-NAS-s模型 - model = NAS('yolo_nas_s.pt') - - # 显示模型信息(可选) - model.info() - - # 在COCO8示例数据集上验证模型 - results = model.val(data='coco8.yaml') - - # 使用YOLO-NAS-s模型对'bus.jpg'图像进行推理 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - 可以使用CLI命令直接运行模型: - - ```bash - # 加载一个在COCO上预训练的YOLO-NAS-s模型,并验证其在COCO8示例数据集上的性能 - yolo val model=yolo_nas_s.pt data=coco8.yaml - - # 加载一个在COCO上预训练的YOLO-NAS-s模型,并对'bus.jpg'图像进行推理 - yolo predict model=yolo_nas_s.pt source=path/to/bus.jpg - ``` - -## 支持的任务和模式 - -我们提供了三种类型的YOLO-NAS模型:Small (s)、Medium (m)和Large (l)。每种类型都旨在满足不同的计算和性能需求: - -- **YOLO-NAS-s:** 针对计算资源有限但效率至关重要的环境进行了优化。 -- **YOLO-NAS-m:** 提供平衡的方法,适用于具有更高准确性的通用物体检测。 -- **YOLO-NAS-l:** 面向需要最高准确性的场景,计算资源不是限制因素。 - -下面是每个模型的详细信息,包括它们的预训练权重链接、支持的任务以及与不同操作模式的兼容性。 - -| 模型类型 | 预训练权重链接 | 支持的任务 | 推理 | 验证 | 训练 | 导出 | -|------------|-----------------------------------------------------------------------------------------------|----------------------------|----|----|----|----| -| YOLO-NAS-s | [yolo_nas_s.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_s.pt) | [物体检测](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-m | [yolo_nas_m.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_m.pt) | [物体检测](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | -| YOLO-NAS-l | [yolo_nas_l.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolo_nas_l.pt) | [物体检测](../tasks/detect.md) | ✅ | ✅ | ❌ | ✅ | - -## 引用和致谢 - -如果您在研究或开发工作中使用了YOLO-NAS,请引用SuperGradients: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{supergradients, - doi = {10.5281/ZENODO.7789328}, - url = {https://zenodo.org/record/7789328}, - author = {Aharon, Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova, Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya, Eugene and Rubin, Ran and Bagrov, Natan and Tymchenko, Borys and Keren, Tomer and Zhilko, Alexander and {Eran-Deci}}, - title = {Super-Gradients}, - publisher = {GitHub}, - journal = {GitHub repository}, - year = {2021}, - } - ``` - -我们向Deci AI的[SuperGradients](https://github.com/Deci-AI/super-gradients/)团队表示感谢,他们致力于创建和维护这个对计算机视觉社区非常有价值的资源。我们相信YOLO-NAS凭借其创新的架构和卓越的物体检测能力,将成为开发者和研究人员的重要工具。 - -*keywords: YOLO-NAS, Deci AI, 物体检测, 深度学习, 神经架构搜索, Ultralytics Python API, YOLO模型, SuperGradients, 预训练模型, 量化友好基本块, 高级训练方案, 训练后量化, AutoNAC优化, COCO, Objects365, Roboflow 100* diff --git a/docs/zh/models/yolov3.md b/docs/zh/models/yolov3.md deleted file mode 100644 index 320c4a25dd1..00000000000 --- a/docs/zh/models/yolov3.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -comments: true -description: 了解YOLOv3、YOLOv3-Ultralytics和YOLOv3u的概述。了解它们的关键功能、用途和支持的目标检测任务。 -keywords: YOLOv3、YOLOv3-Ultralytics、YOLOv3u、目标检测、推理、训练、Ultralytics ---- - -# YOLOv3、YOLOv3-Ultralytics和YOLOv3u - -## 概述 - -本文介绍了三个紧密相关的目标检测模型,分别是[YOLOv3](https://pjreddie.com/darknet/yolo/)、[YOLOv3-Ultralytics](https://github.com/ultralytics/yolov3)和[YOLOv3u](https://github.com/ultralytics/ultralytics)。 - -1. **YOLOv3:** 这是第三版 You Only Look Once (YOLO) 目标检测算法。YOLOv3 在前作的基础上进行了改进,引入了多尺度预测和三种不同尺寸的检测核,提高了检测准确性。 - -2. **YOLOv3-Ultralytics:** 这是 Ultralytics 对 YOLOv3 模型的实现。它在复现了原始 YOLOv3 架构的基础上,提供了额外的功能,如对更多预训练模型的支持和更简单的定制选项。 - -3. **YOLOv3u:** 这是 YOLOv3-Ultralytics 的更新版本,它引入了 YOLOv8 模型中使用的无锚、无物体性能分离头。YOLOv3u 保留了 YOLOv3 的主干和颈部架构,但使用了来自 YOLOv8 的更新检测头。 - -![Ultralytics YOLOv3](https://github.com/raw/ultralytics/assets/main/yolov3/banner-yolov3.png) - -## 关键功能 - -- **YOLOv3:** 引入了三种不同尺度的检测,采用了三种不同尺寸的检测核:13x13、26x26 和 52x52。这显著提高了对不同大小对象的检测准确性。此外,YOLOv3 还为每个边界框添加了多标签预测和更好的特征提取网络。 - -- **YOLOv3-Ultralytics:** Ultralytics 对 YOLOv3 的实现具有与原始模型相同的性能,但增加了对更多预训练模型、额外训练方法和更简单的定制选项的支持。这使得它在实际应用中更加通用和易用。 - -- **YOLOv3u:** 这个更新的模型采用了来自 YOLOv8 的无锚、无物体性能分离头。通过消除预定义的锚框和物体性能分数的需求,检测头设计可以提高模型对不同大小和形状的对象的检测能力。这使得 YOLOv3u 在目标检测任务中更加强大和准确。 - -## 支持的任务和模式 - -YOLOv3 系列,包括 YOLOv3、YOLOv3-Ultralytics 和 YOLOv3u,专门用于目标检测任务。这些模型以在各种实际场景中平衡准确性和速度而闻名。每个变体都提供了独特的功能和优化,使其适用于各种应用场景。 - -这三个模型都支持一套全面的模式,确保在模型部署和开发的各个阶段具备多种功能。这些模式包括[推理](../modes/predict.md)、[验证](../modes/val.md)、[训练](../modes/train.md)和[导出](../modes/export.md),为用户提供了有效的目标检测完整工具。 - -| 模型类型 | 支持的任务 | 推理 | 验证 | 训练 | 导出 | -|--------------------|----------------------------|----|----|----|----| -| YOLOv3 | [目标检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3-Ultralytics | [目标检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv3u | [目标检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -该表格提供了每个 YOLOv3 变体的能力一览,突显了它们的多功能性和适用性,以用于目标检测工作流程中的各种任务和操作模式。 - -## 用法示例 - -以下示例提供了简单的 YOLOv3 训练和推理示例。有关这些和其他模式的完整文档,请参阅 [Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md) 和 [Export](../modes/export.md) 文档页面。 - -!!! Example "示例" - - === "Python" - - 可以将预先训练的 PyTorch `*.pt` 模型以及配置 `*.yaml` 文件传递给 `YOLO()` 类,以在 Python 中创建模型实例: - - ```python - from ultralytics import YOLO - - # 加载一个经过 COCO 预训练的 YOLOv3n 模型 - model = YOLO('yolov3n.pt') - - # 显示模型信息(可选) - model.info() - - # 在 COCO8 示例数据集上训练模型100个epoch - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 使用 YOLOv3n 模型对 'bus.jpg' 图像进行推理 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - 可以直接使用命令行界面 (CLI) 来运行模型: - - ```bash - # 加载一个经过 COCO 预训练的 YOLOv3n 模型,并在 COCO8 示例数据集上训练100个epoch - yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640 - - # 加载一个经过 COCO 预训练的 YOLOv3n 模型,并对 'bus.jpg' 图像进行推理 - yolo predict model=yolov3n.pt source=path/to/bus.jpg - ``` - -## 引用和致谢 - -如果您在研究中使用 YOLOv3,请引用原始的 YOLO 论文和 Ultralytics 的 YOLOv3 仓库: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{redmon2018yolov3, - title={YOLOv3: An Incremental Improvement}, - author={Redmon, Joseph and Farhadi, Ali}, - journal={arXiv preprint arXiv:1804.02767}, - year={2018} - } - ``` - -感谢 Joseph Redmon 和 Ali Farhadi 开发了原始的 YOLOv3 模型。 diff --git a/docs/zh/models/yolov4.md b/docs/zh/models/yolov4.md deleted file mode 100644 index 909122997ea..00000000000 --- a/docs/zh/models/yolov4.md +++ /dev/null @@ -1,71 +0,0 @@ ---- -comments: true -description: 通过我们详细的YOLOv4指南,探索最先进的实时目标检测器。了解其建筑亮点,创新功能和应用示例。 -keywords: ultralytics, YOLOv4, 目标检测, 神经网络, 实时检测, 目标检测器, 机器学习 ---- - -# YOLOv4:高速和精确的目标检测 - -欢迎来到Ultralytics关于YOLOv4的文档页面,YOLOv4是由Alexey Bochkovskiy于2020年在 [https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet) 发布的最先进的实时目标检测器。YOLOv4旨在提供速度和准确性的最佳平衡,使其成为许多应用的优秀选择。 - -![YOLOv4架构图](https://user-images.githubusercontent.com/26833433/246185689-530b7fe8-737b-4bb0-b5dd-de10ef5aface.png) -**YOLOv4架构图**。展示了YOLOv4的复杂网络设计,包括主干,颈部和头部组件以及它们相互连接的层,以实现最佳的实时目标检测。 - -## 简介 - -YOLOv4代表You Only Look Once版本4。它是为解决之前YOLO版本(如[YOLOv3](yolov3.md))和其他目标检测模型的局限性而开发的实时目标检测模型。与其他基于卷积神经网络(CNN)的目标检测器不同,YOLOv4不仅适用于推荐系统,还可用于独立的进程管理和减少人工输入。它在传统图形处理单元(GPU)上的操作可以以经济实惠的价格进行大规模使用,并且设计为在常规GPU上实时工作,仅需要一个这样的GPU进行训练。 - -## 架构 - -YOLOv4利用了几个创新功能,这些功能共同优化其性能。这些功能包括加权残差连接(WRC),跨阶段部分连接(CSP),交叉mini-Batch归一化(CmBN),自适应对抗训练(SAT),Mish激活函数,Mosaic数据增强,DropBlock正则化和CIoU损失。这些功能的组合可以实现最先进的结果。 - -典型的目标检测器由几个部分组成,包括输入、主干、颈部和头部。YOLOv4的主干是在ImageNet上预训练的,用于预测对象的类别和边界框。主干可以来自多个模型,包括VGG、ResNet、ResNeXt或DenseNet。检测器的颈部部分用于从不同阶段收集特征图,通常包括几条自底向上的路径和几条自顶向下的路径。头部部分用于进行最终的目标检测和分类。 - -## 免费赠品 - -YOLOv4还使用了称为“免费赠品”的方法,这些方法在训练过程中提高模型的准确性,而不增加推理成本。数据增强是目标检测中常用的一种免费赠品技术,它增加了输入图像的变异性,以提高模型的鲁棒性。一些数据增强的例子包括光度失真(调整图像的亮度、对比度、色调、饱和度和噪音)和几何失真(添加随机缩放、裁剪、翻转和旋转)。这些技术帮助模型更好地应对不同类型的图像。 - -## 特点和性能 - -YOLOv4被设计为在目标检测中具有最佳速度和准确性。YOLOv4的架构包括CSPDarknet53作为主干,PANet作为颈部,以及YOLOv3作为检测头。这种设计使得YOLOv4能够以令人印象深刻的速度进行目标检测,适用于实时应用。YOLOv4在准确性方面也表现出色,在目标检测基准测试中取得了最先进的结果。 - -## 使用示例 - -截至撰写本文时,Ultralytics当前不支持YOLOv4模型。因此,任何有兴趣使用YOLOv4的用户需要直接参考YOLOv4 GitHub存储库中的安装和使用说明。 - -以下是使用YOLOv4的典型步骤的简要概述: - -1. 访问YOLOv4 GitHub存储库:[https://github.com/AlexeyAB/darknet](https://github.com/AlexeyAB/darknet)。 - -2. 按照README文件中提供的说明进行安装。这通常涉及克隆存储库,安装必要的依赖项,并设置任何必要的环境变量。 - -3. 安装完成后,您可以根据存储库提供的使用说明训练和使用模型。这通常涉及准备您的数据集、配置模型参数、训练模型,然后使用训练好的模型进行目标检测。 - -请注意,具体的步骤可能因您的特定用例和YOLOv4存储库的当前状态而有所不同。因此,强烈建议直接参考YOLOv4 GitHub存储库中提供的说明。 - -对于Ultralytics不支持YOLOv4的情况,我们感到非常抱歉,我们将努力更新本文档,以包括使用Ultralytics支持的YOLOv4的示例。 - -## 结论 - -YOLOv4是一种强大而高效的目标检测模型,它在速度和准确性之间取得了平衡。它在训练过程中使用独特的功能和免费赠品技术,使其在实时目标检测任务中表现出色。任何具备常规GPU的人都可以进行YOLOv4的训练和使用,使其对于各种应用具有可访问性和实用性。 - -## 引文和致谢 - -我们要感谢YOLOv4的作者对实时目标检测领域的重要贡献: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @misc{bochkovskiy2020yolov4, - title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, - author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao}, - year={2020}, - eprint={2004.10934}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - -YOLOv4的原始论文可以在[arXiv](https://arxiv.org/abs/2004.10934)上找到。作者已经公开了他们的工作,代码库可以在[GitHub](https://github.com/AlexeyAB/darknet)上获取。我们赞赏他们在推动该领域方面的努力,并使他们的工作对广大社区产生影响。 diff --git a/docs/zh/models/yolov5.md b/docs/zh/models/yolov5.md deleted file mode 100644 index 1d9db7c5e94..00000000000 --- a/docs/zh/models/yolov5.md +++ /dev/null @@ -1,113 +0,0 @@ ---- -comments: true -description: 发现YOLOv5u,它是YOLOv5模型的改进版本,具有更好的准确性和速度之间的平衡,并为各种目标检测任务提供了许多预训练模型。 -keywords: YOLOv5u、目标检测、预训练模型、Ultralytics、推断、验证、YOLOv5、YOLOv8、无锚点、无物体检测、实时应用、机器学习 ---- - -# YOLOv5 - -## 概述 - -YOLOv5u是目标检测方法的一种进步。YOLOv5u源于Ultralytics开发的[YOLOv5](https://github.com/ultralytics/yolov5)模型的基础架构,它集成了无锚点、无物体检测分离头的新特性,这一特性在[YOLOv8](yolov8.md)模型中首次引入。通过采用这种适应性更强的检测机制,YOLOv5u改进了模型的架构,从而在目标检测任务中实现了更好的准确性和速度的平衡。根据实证结果和其衍生特性,YOLOv5u为那些在研究和实际应用中寻求强大解决方案的人提供了一种高效的选择。 - -![Ultralytics YOLOv5](https://github.com/raw/ultralytics/assets/main/yolov5/v70/splash.png) - -## 主要特性 - -- **无锚点分离Ultralytics头部**: 传统的目标检测模型依靠预定义的锚点框来预测目标位置,而YOLOv5u改变了这种方法。采用无锚点分离Ultralytics头部的方式,它确保了更灵活、适应性更强的检测机制,从而在各种场景中提高了性能。 - -- **优化的准确性和速度之间的平衡**: 速度和准确性通常是相互制约的。但是YOLOv5u挑战了这种平衡。它提供了一个校准平衡,确保在保持准确性的同时实现实时检测。这一特性对于需要快速响应的应用非常重要,比如自动驾驶车辆、机器人和实时视频分析。 - -- **丰富的预训练模型**: YOLOv5u提供了多种预训练模型。无论你专注于推断、验证还是训练,都有一个量身定制的模型等待着你。这种多样性确保你不仅仅使用“一刀切”的解决方案,而是使用一个专门为你的独特挑战进行了精细调整的模型。 - -## 支持的任务和模式 - -具有各种预训练权重的YOLOv5u模型在[目标检测](../tasks/detect.md)任务中表现出色。它们支持全面的模式,适用于从开发到部署的各种应用场景。 - -| 模型类型 | 预训练权重 | 任务 | 推断 | 验证 | 训练 | 导出 | -|---------|-----------------------------------------------------------------------------------------------------------------------------|----------------------------|----|----|----|----| -| YOLOv5u | `yolov5nu`, `yolov5su`, `yolov5mu`, `yolov5lu`, `yolov5xu`, `yolov5n6u`, `yolov5s6u`, `yolov5m6u`, `yolov5l6u`, `yolov5x6u` | [目标检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -该表详细介绍了YOLOv5u模型的变体,突出了它们在目标检测任务和各种操作模式(如[推断](../modes/predict.md)、[验证](../modes/val.md)、[训练](../modes/train.md)和[导出](../modes/export.md))方面的适用性。这种全面的支持确保用户可以充分发挥YOLOv5u模型在各种目标检测场景中的能力。 - -## 性能指标 - -!!! Performance - - === "检测" - - 请参阅[检测文档](https://docs.ultralytics.com/tasks/detect/),以了解在[COCO](https://docs.ultralytics.com/datasets/detect/coco/)上训练的这些模型的用法示例,其中包括80个预训练类别。 - - | 模型 | YAML | 大小
(像素) | mAPval
50-95 | 速度
CPU ONNX
(毫秒) | 速度
A100 TensorRT
(毫秒) | 参数数
(百万) | FLOPs
(十亿) | - |---------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------|-----------------------|----------------------|--------------------------------|-------------------------------------|--------------------|-------------------| - | [yolov5nu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5nu.pt) | [yolov5n.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 | - | [yolov5su.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5su.pt) | [yolov5s.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 43.0 | 120.7 | 1.27 | 9.1 | 24.0 | - | [yolov5mu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5mu.pt) | [yolov5m.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 49.0 | 233.9 | 1.86 | 25.1 | 64.2 | - | [yolov5lu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5lu.pt) | [yolov5l.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 52.2 | 408.4 | 2.50 | 53.2 | 135.0 | - | [yolov5xu.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5xu.pt) | [yolov5x.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5.yaml) | 640 | 53.2 | 763.2 | 3.81 | 97.2 | 246.4 | - | | | | | | | | | - | [yolov5n6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5n6u.pt) | [yolov5n6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 42.1 | 211.0 | 1.83 | 4.3 | 7.8 | - | [yolov5s6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5s6u.pt) | [yolov5s6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 48.6 | 422.6 | 2.34 | 15.3 | 24.6 | - | [yolov5m6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5m6u.pt) | [yolov5m6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 53.6 | 810.9 | 4.36 | 41.2 | 65.7 | - | [yolov5l6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5l6u.pt) | [yolov5l6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 55.7 | 1470.9 | 5.47 | 86.1 | 137.4 | - | [yolov5x6u.pt](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov5x6u.pt) | [yolov5x6.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/models/v5/yolov5-p6.yaml) | 1280 | 56.8 | 2436.5 | 8.98 | 155.4 | 250.7 | - -## 使用示例 - -这个示例提供了YOLOv5训练和推断的简单示例。有关这些和其他[模式](../modes/index.md)的完整文档,请参阅[预测](../modes/predict.md)、[训练](../modes/train.md)、[验证](../modes/val.md)和[导出](../modes/export.md)的文档页面。 - -!!! Example "示例" - - === "Python" - - PyTorch预训练的`*.pt`模型,以及配置`*.yaml`文件可以传递给`YOLO()`类,以在python中创建一个模型实例: - - ```python - from ultralytics import YOLO - - # 加载一个在COCO数据集上预训练的YOLOv5n模型 - model = YOLO('yolov5n.pt') - - # 显示模型信息(可选) - model.info() - - # 使用COCO8示例数据集对模型进行100个时期的训练 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 使用YOLOv5n模型对'bus.jpg'图像进行推断 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - 可以使用CLI命令直接运行模型: - - ```bash - # 加载一个在COCO数据集上预训练的YOLOv5n模型,并在COCO8示例数据集上进行100个时期的训练 - yolo train model=yolov5n.pt data=coco8.yaml epochs=100 imgsz=640 - - # 加载一个在COCO数据集上预训练的YOLOv5n模型,并在'bus.jpg'图像上进行推断 - yolo predict model=yolov5n.pt source=path/to/bus.jpg - ``` - -## 引用和致谢 - -如果您在您的研究中使用了YOLOv5或YOLOv5u,请引用Ultralytics的YOLOv5存储库,引用方式如下: - -!!! Quote "" - - === "BibTeX" - ```bibtex - @software{yolov5, - title = {Ultralytics YOLOv5}, - author = {Glenn Jocher}, - year = {2020}, - version = {7.0}, - license = {AGPL-3.0}, - url = {https://github.com/ultralytics/yolov5}, - doi = {10.5281/zenodo.3908559}, - orcid = {0000-0001-5950-6979} - } - ``` - -请注意,YOLOv5模型提供[AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE)和[企业](https://ultralytics.com/license)许可证。 diff --git a/docs/zh/models/yolov6.md b/docs/zh/models/yolov6.md deleted file mode 100644 index d0ac2e35bed..00000000000 --- a/docs/zh/models/yolov6.md +++ /dev/null @@ -1,107 +0,0 @@ ---- -comments: true -description: 探索美团YOLOv6,一种在速度和准确性之间取得平衡的最先进的物体检测模型。深入了解功能、预训练模型和Python使用方法。 -keywords: 美团YOLOv6、物体检测、Ultralytics、YOLOv6文档、双向连接、锚辅助训练、预训练模型、实时应用 ---- - -# 美团YOLOv6 - -## 概述 - -[美团](https://about.meituan.com/) YOLOv6是一种最先进的物体检测器,速度和准确性兼具,成为实时应用的热门选择。该模型在架构和训练方案上引入了几项重要改进,包括双向连接模块(BiC)、锚辅助训练(AAT)策略以及改进了的主干和颈部设计,使其在COCO数据集上达到了最先进的准确性。 - -![美团YOLOv6](https://user-images.githubusercontent.com/26833433/240750495-4da954ce-8b3b-41c4-8afd-ddb74361d3c2.png) -![模型示例图片](https://user-images.githubusercontent.com/26833433/240750557-3e9ec4f0-0598-49a8-83ea-f33c91eb6d68.png) -**YOLOv6概述。** 模型架构图显示了经过重新设计的网络组件和训练策略,这些策略导致了显著的性能提升。(a)YOLOv6的颈部(N和S)。(b)BiC模块的结构。(c)SimCSPSPPF块。([来源](https://arxiv.org/pdf/2301.05586.pdf)). - -### 主要功能 - -- **双向连接(BiC)模块:** YOLOv6在检测器的颈部引入了双向连接(BiC)模块,增强了定位信号,提供了性能增益,并且几乎没有降低速度。 -- **锚辅助训练(AAT)策略:** 该模型提出了锚辅助训练(AAT)以享受基于锚点和无锚点范例的双重优势,同时不影响推理效率。 -- **增强的主干和颈部设计:** 通过在主干和颈部中增加一个阶段,该模型在高分辨率输入下在COCO数据集上实现了最先进的性能。 -- **自我蒸馏策略:** 实施了一种新的自我蒸馏策略,以提升YOLOv6的较小模型的性能,在训练过程中增强辅助回归分支,并在推理过程中将其删除,以避免明显的速度下降。 - -## 性能指标 - -YOLOv6提供了具有不同尺度的各种预训练模型: - -- YOLOv6-N:在NVIDIA Tesla T4 GPU上,COCO val2017上的AP为37.5%,帧率为1187 FPS。 -- YOLOv6-S:AP为45.0%,帧率为484 FPS。 -- YOLOv6-M:AP为50.0%,帧率为226 FPS。 -- YOLOv6-L:AP为52.8%,帧率为116 FPS。 -- YOLOv6-L6:实时场景中的最先进准确性。 - -YOLOv6还提供了适用于不同精度和移动平台的量化模型。 - -## 使用示例 - -以下示例提供了简单的YOLOv6训练和推理示例。有关这些示例和其他[模式](../modes/index.md)的完整文档,请参阅[Predict](../modes/predict.md)、[Train](../modes/train.md)、[Val](../modes/val.md)和[Export](../modes/export.md)的文档页面。 - -!!! 例子 - - === "Python" - - 在Python中,可以将PyTorch预训练的`*.pt`模型以及配置文件`*.yaml`传递给`YOLO()`类,以创建一个模型实例: - - ```python - from ultralytics import YOLO - - # 从头开始构建一个YOLOv6n模型 - model = YOLO('yolov6n.yaml') - - # 显示模型信息(可选) - model.info() - - # 使用COCO8示例数据集对模型进行100个epoch的训练 - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 使用YOLOv6n模型对'bus.jpg'图像进行推理 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - 也可以使用CLI命令直接运行模型: - - ```bash - # 从头开始构建YOLOv6n模型,并在COCO8示例数据集上进行100个epoch的训练 - yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640 - - # 从头开始构建YOLOv6n模型,并对'bus.jpg'图像进行推理 - yolo predict model=yolov6n.yaml source=path/to/bus.jpg - ``` - -## 支持的任务和模式 - -YOLOv6系列提供了一系列模型,每个模型都针对高性能[物体检测](../tasks/detect.md)进行了优化。这些模型适用于各种计算需求和准确性要求,使其在广泛的应用中具备多样性。 - -| 模型类型 | 预训练权重 | 支持的任务 | 推理 | 验证 | 训练 | 导出 | -|-----------|----------------|----------------------------|----|----|----|----| -| YOLOv6-N | `yolov6-n.pt` | [物体检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-S | `yolov6-s.pt` | [物体检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-M | `yolov6-m.pt` | [物体检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L | `yolov6-l.pt` | [物体检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv6-L6 | `yolov6-l6.pt` | [物体检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | - -这个表格详细介绍了YOLOv6模型的各个变体,突出了它们在物体检测任务中的能力以及它们与各种操作模式(如[推理](../modes/predict.md)、[验证](../modes/val.md)、[训练](../modes/train.md)和[导出](../modes/export.md))的兼容性。这种全面的支持确保用户可以在各种物体检测场景中充分利用YOLOv6模型的能力。 - -## 引用和致谢 - -我们要感谢这些作者在实时物体检测领域的重要贡献: - -!!! 引文 "" - - === "BibTeX" - - ```bibtex - @misc{li2023yolov6, - title={YOLOv6 v3.0: A Full-Scale Reloading}, - author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu}, - year={2023}, - eprint={2301.05586}, - archivePrefix={arXiv}, - primaryClass={cs.CV} - } - ``` - - 原始的YOLOv6论文可以在[arXiv](https://arxiv.org/abs/2301.05586)上找到。作者已经将他们的作品公开,并且代码可以在[GitHub](https://github.com/meituan/YOLOv6)上访问。我们对他们在推动该领域的努力以及使他们的工作为更广泛的社区所接触到的努力表示感谢。 diff --git a/docs/zh/models/yolov7.md b/docs/zh/models/yolov7.md deleted file mode 100644 index 46b30b12ae2..00000000000 --- a/docs/zh/models/yolov7.md +++ /dev/null @@ -1,65 +0,0 @@ ---- -comments: true -description: 探索YOLOv7,一个实时物体检测器。了解其卓越的速度,令人印象深刻的精确度和独特的可训练无需付费优化聚焦点。 -keywords: YOLOv7,实时物体检测器,State-of-the-art,Ultralytics,MS COCO数据集,模型重新参数化,动态标签分配,扩展缩放,复合缩放 ---- - -# YOLOv7:可训练无需付费 - -YOLOv7是一种实时物体检测器的最新技术,其速度和准确度超过了目前已知的所有物体检测器,速度范围在5 FPS到160 FPS之间。在GPU V100上,它在所有已知实时物体检测器中具有最高的准确度(56.8%AP),且帧率达到30 FPS或更高。此外,YOLOv7在速度和准确度方面也优于其他物体检测器,如YOLOR,YOLOX,缩放后的YOLOv4,YOLOv5等等。该模型是从头开始使用MS COCO数据集进行训练的,而没有使用其他数据集或预训练权重。YOLOv7的源代码可在GitHub上获得。 - -![YOLOv7与SOTA物体检测器的比较](https://github.com/ultralytics/ultralytics/assets/26833433/5e1e0420-8122-4c79-b8d0-2860aa79af92) -**最先进物体检测器的比较**。从表2的结果可以看出,所提出的方法在速度和准确度的均衡上最佳。将YOLOv7-tiny-SiLU与YOLOv5-N(r6.1)进行比较,我们的方法在AP上快了127 FPS,准确度提高了10.7%。此外,YOLOv7在161 FPS的帧率下具有51.4%的AP,而具有相同AP的PPYOLOE-L仅具有78 FPS的帧率。在参数使用方面,YOLOv7比PPYOLOE-L少了41%。将YOLOv7-X与114 FPS的推理速度与YOLOv5-L(r6.1)的99 FPS的推理速度进行比较,YOLOv7-X可以提高3.9%的AP。如果将YOLOv7-X与类似规模的YOLOv5-X(r6.1)进行比较,YOLOv7-X的推理速度比YOLOv5-X快31 FPS。此外,就参数和计算量而言,与YOLOv5-X(r6.1)相比,YOLOv7-X减少了22%的参数和8%的计算量,但AP提高了2.2%([来源](https://arxiv.org/pdf/2207.02696.pdf))。 - -## 概述 - -实时物体检测是许多计算机视觉系统的重要组件,包括多目标跟踪,自动驾驶,机器人技术和医学图像分析等。近年来,实时物体检测的发展一直致力于设计高效的架构,并提高各种CPU,GPU和神经处理单元(NPU)的推理速度。YOLOv7支持移动GPU和GPU设备,从边缘到云端。 - -与传统的实时物体检测器侧重于架构优化不同,YOLOv7引入了对训练过程优化的关注。这包括模块和优化方法,旨在提高目标检测的准确性而不增加推理成本,这个概念被称为“可训练无需付费”。 - -## 主要特性 - -YOLOv7引入了几个关键特性: - -1. **模型重新参数化**:YOLOv7提出了一种计划好的重新参数化模型,它是一种适用于不同网络中的层的策略,具有梯度传播路径的概念。 - -2. **动态标签分配**:对多个输出层的模型进行训练会遇到一个新问题:“如何为不同分支的输出分配动态目标?”为了解决这个问题,YOLOv7引入了一种新的标签分配方法,称为粗到细的引导式标签分配。 - -3. **扩展和复合缩放**:YOLOv7提出了适用于实时物体检测器的“扩展”和“复合缩放”方法,可以有效利用参数和计算。 - -4. **效率**:YOLOv7提出的方法可以有效地减少最先进实时物体检测器的约40%的参数和50%的计算量,并具有更快的推理速度和更高的检测准确度。 - -## 使用示例 - -截至撰写本文时,Ultralytics当前不支持YOLOv7模型。因此,任何希望使用YOLOv7的用户都需要直接参考YOLOv7 GitHub存储库中的安装和使用说明。 - -这是您可能采取的使用YOLOv7的典型步骤的简要概述: - -1. 访问YOLOv7 GitHub存储库:[https://github.com/WongKinYiu/yolov7](https://github.com/WongKinYiu/yolov7)。 - -2. 按照README文件中提供的说明进行安装。这通常涉及克隆存储库,安装必要的依赖项,并设置任何必要的环境变量。 - -3. 安装完成后,您可以根据存储库中提供的使用说明训练和使用模型。这通常涉及准备数据集,配置模型参数,训练模型,然后使用训练好的模型执行物体检测。 - -请注意,具体的步骤可能因您的特定用例和YOLOv7存储库的当前状态而有所不同。因此,强烈建议直接参考YOLOv7 GitHub存储库中提供的说明。 - -我们对这可能造成的任何不便表示歉意,并将努力更新此文档以提供针对Ultralytics的YOLOv7支持的使用示例。 - -## 引用和致谢 - -我们要感谢YOLOv7的作者在实时物体检测领域做出的重大贡献: - -!!! Quote "" - - === "BibTeX" - - ```bibtex - @article{wang2022yolov7, - title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors}, - author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark}, - journal={arXiv preprint arXiv:2207.02696}, - year={2022} - } - ``` - -YOLOv7的原始论文可以在[arXiv](https://arxiv.org/pdf/2207.02696.pdf)上找到。作者已将其工作公开,并且代码库可在[GitHub](https://github.com/WongKinYiu/yolov7)中访问。我们感谢他们在推动该领域发展并使其工作对广大社区可访问的努力。 diff --git a/docs/zh/models/yolov8.md b/docs/zh/models/yolov8.md deleted file mode 100644 index 5a232d98978..00000000000 --- a/docs/zh/models/yolov8.md +++ /dev/null @@ -1,162 +0,0 @@ ---- -comments: true -description: 探索YOLOv8的激动人心功能,这是我们实时目标检测器的最新版本!了解高级架构、预训练模型和精确度与速度的最佳平衡如何使YOLOv8成为您进行目标检测任务的理想选择。 -keywords: YOLOv8,Ultralytics,实时目标检测器,预训练模型,文档,目标检测,YOLO系列,高级架构,精确度,速度 ---- - -# YOLOv8 - -## 概述 - -YOLOv8是YOLO系列实时目标检测器的最新版本,以其在准确度和速度方面的卓越性能而闻名。在构建在之前YOLO版本的基础上,YOLOv8引入了新功能和优化,使其成为各种应用领域中各种目标检测任务的理想选择。 - -![Ultralytics YOLOv8](https://github.com/raw/ultralytics/assets/main/yolov8/yolo-comparison-plots.png) - -## 主要功能 - -- **先进的主干和中间架构:** YOLOv8采用最先进的主干和中间架构,提供了更好的特征提取和目标检测性能。 -- **无锚分割Ultralytics头:** YOLOv8采用无锚分割的Ultralytics头,相比于基于锚点的方法,可以提供更高的准确性和更高效的检测过程。 -- **优化的准确度和速度平衡:** YOLOv8专注于在准确度和速度之间维持最佳平衡,适用于各种实时目标检测任务。 -- **多种预训练模型:** YOLOv8提供了一系列预训练模型,以满足各种任务和性能要求,更容易找到适合特定用例的模型。 - -## 支持的任务和模式 - -YOLOv8系列提供了多种模型,每个模型专门用于计算机视觉中的特定任务。这些模型旨在满足各种要求,从目标检测到更复杂的任务,如实例分割、姿态/关键点检测和分类。 - -YOLOv8系列的每个变体都针对其相应的任务进行了优化,确保高性能和准确性。此外,这些模型与各种操作模式兼容,包括[推理](../modes/predict.md)、[验证](../modes/val.md)、[训练](../modes/train.md)和[导出](../modes/export.md),便于在部署和开发的不同阶段使用。 - -| 模型 | 文件名 | 任务 | 推理 | 验证 | 训练 | 导出 | -|-------------|----------------------------------------------------------------------------------------------------------------|-----------------------------|----|----|----|----| -| YOLOv8 | `yolov8n.pt` `yolov8s.pt` `yolov8m.pt` `yolov8l.pt` `yolov8x.pt` | [检测](../tasks/detect.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-seg | `yolov8n-seg.pt` `yolov8s-seg.pt` `yolov8m-seg.pt` `yolov8l-seg.pt` `yolov8x-seg.pt` | [实例分割](../tasks/segment.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-pose | `yolov8n-pose.pt` `yolov8s-pose.pt` `yolov8m-pose.pt` `yolov8l-pose.pt` `yolov8x-pose.pt` `yolov8x-pose-p6.pt` | [姿态/关键点](../tasks/pose.md) | ✅ | ✅ | ✅ | ✅ | -| YOLOv8-cls | `yolov8n-cls.pt` `yolov8s-cls.pt` `yolov8m-cls.pt` `yolov8l-cls.pt` `yolov8x-cls.pt` | [分类](../tasks/classify.md) | ✅ | ✅ | ✅ | ✅ | - -这个表格提供了YOLOv8模型变种的概览,突出了它们在特定任务中的适用性,以及它们与各种操作模式(如推理、验证、训练和导出)的兼容性。它展示了YOLOv8系列的多功能性和鲁棒性,使它们适用于计算机视觉中各种应用。 - -## 性能指标 - -!!! Performance - - === "检测(COCO)" - - 有关在[COCO](https://docs.ultralytics.com/datasets/detect/coco/)上训练的这些模型的用法示例,请参见[Detection Docs](https://docs.ultralytics.com/tasks/detect/),其中包括80个预训练的类别。 - - | 模型 | 大小
(pixels) | mAPval
50-95 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | 参数
(M) | FLOPs
(B) | - | ---------------------------------------------------------------------------------------- | --------------------- | -------------------- | --------------------------------- | ---------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - - === "检测(Open Images V7)" - - 有关在[Open Image V7](https://docs.ultralytics.com/datasets/detect/open-images-v7/)上训练的这些模型的用法示例,请参见[Detection Docs](https://docs.ultralytics.com/tasks/detect/),其中包括600个预训练的类别。 - - | 模型 | 大小
(pixels) | mAPval
50-95 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | 参数
(M) | FLOPs
(B) | - | ------------------------------------------------------------------------------------------- | --------------------- | -------------------- | ------------------------------ | ---------------------------------- | ------------------ | ----------------- | - | [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-oiv7.pt) | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 | - | [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-oiv7.pt) | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 | - | [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-oiv7.pt) | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 | - | [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-oiv7.pt) | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 | - | [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-oiv7.pt) | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 | - - === "分割(COCO)" - - 有关在[COCO](https://docs.ultralytics.com/datasets/segment/coco/)上训练的这些模型的用法示例,请参见[Segmentation Docs](https://docs.ultralytics.com/tasks/segment/),其中包括80个预训练的类别。 - - | 模型 | 大小
(pixels) | mAPbox
50-95 | mAPmask
50-95 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | 参数
(M) | FLOPs
(B) | - | -------------------------------------------------------------------------------------------- | --------------------- | -------------------- | --------------------- | ------------------------------ | ---------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | - | [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | - | [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | - | [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | - | [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - - === "分类(ImageNet)" - - 有关在[ImageNet](https://docs.ultralytics.com/datasets/classify/imagenet/)上训练的这些模型的用法示例,请参见[Classification Docs](https://docs.ultralytics.com/tasks/classify/),其中包括1000个预训练的类别。 - - | 模型 | 大小
(pixels) | 准确率
top1 | 准确率
top5 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | 参数
(M) | FLOPs
(B) at 640 | - | ---------------------------------------------------------------------------------------------- | --------------------- | ------------------ | ------------------ | ------------------------------ | ---------------------------------- | ------------------ | ------------------------ | - | [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | - | [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | - | [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | - | [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | - | [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - - === "姿态(COCO)" - - 有关在[COCO](https://docs.ultralytics.com/datasets/pose/coco/)上训练的这些模型的用法示例,请参见[Pose Estimation Docs](https://docs.ultralytics.com/tasks/segment/),其中包括1个预训练的类别,'person'。 - - | 模型 | 大小
(pixels) | mAPpose
50-95 | mAPpose
50 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | 参数
(M) | FLOPs
(B) | - | ---------------------------------------------------------------------------------------------------- | --------------------- | --------------------- | ------------------ | ------------------------------ | ---------------------------------- | ------------------ | ----------------- | - | [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | - | [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | - | [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | - | [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | - | [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | - | [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -## 用法示例 - -这个示例提供了关于YOLOv8训练和推理的简单示例。有关这些和其他[模式](../modes/index.md)的完整文档,请参见[Predict](../modes/predict.md),[Train](../modes/train.md),[Val](../modes/val.md)和[Export](../modes/export.md)文档页面。 - -请注意,以下示例是针对用于目标检测的YOLOv8 [Detect](../tasks/detect.md)模型。有关其他支持的任务,请参见[Segment](../tasks/segment.md)、[Classify](../tasks/classify.md)和[Pose](../tasks/pose.md)文档。 - -!!! Example "示例" - - === "Python" - - 可以将PyTorch预训练的`*.pt`模型和配置`*.yaml`文件传递给`YOLO()`类,在python中创建一个模型实例: - - ```python - from ultralytics import YOLO - - # 加载一个在COCO预训练的YOLOv8n模型 - model = YOLO('yolov8n.pt') - - # 显示模型信息(可选) - model.info() - - # 使用COCO8示例数据集训练模型100个epoch - results = model.train(data='coco8.yaml', epochs=100, imgsz=640) - - # 使用YOLOv8n模型在'bus.jpg'图片上运行推理 - results = model('path/to/bus.jpg') - ``` - - === "CLI" - - 可以使用CLI命令直接运行模型: - - ```bash - # 加载一个在COCO预训练的YOLOv8n模型,并在COCO8示例数据集上训练100个epoch - yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 - - # 加载一个在COCO预训练的YOLOv8n模型,并在'bus.jpg'图片上运行推理 - yolo predict model=yolov8n.pt source=path/to/bus.jpg - ``` - -## 引用和致谢 - -如果您在工作中使用YOLOv8模型或此存储库中的其他软件,请使用以下格式进行引用: - -!!! Quote "引用" - - === "BibTeX" - - ```bibtex - @software{yolov8_ultralytics, - author = {Glenn Jocher and Ayush Chaurasia and Jing Qiu}, - title = {Ultralytics YOLOv8}, - version = {8.0.0}, - year = {2023}, - url = {https://github.com/ultralytics/ultralytics}, - orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069}, - license = {AGPL-3.0} - } - ``` - -请注意,DOI正在等待中,DOI将在可用时添加到引用中。YOLOv8模型根据[AGPL-3.0](https://github.com/ultralytics/ultralytics/blob/main/LICENSE)和[企业许可证](https://ultralytics.com/license)提供。 diff --git a/docs/zh/modes/benchmark.md b/docs/zh/modes/benchmark.md deleted file mode 100644 index 53a14e53916..00000000000 --- a/docs/zh/modes/benchmark.md +++ /dev/null @@ -1,94 +0,0 @@ ---- -comments: 真 -description: 了解如何评估YOLOv8在各种导出格式下的速度和准确性,获取mAP50-95、accuracy_top5等指标的洞察。 -keywords: Ultralytics, YOLOv8, 基准测试, 速度分析, 准确性分析, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, YOLO导出格式 ---- - -# 使用Ultralytics YOLO进行模型基准测试 - -Ultralytics YOLO生态系统和集成 - -## 介绍 - -一旦您的模型经过训练和验证,下一个合乎逻辑的步骤是评估它在各种实际场景中的性能。Ultralytics YOLOv8的基准模式通过提供一个健壮的框架来评估模型在一系列导出格式中的速度和准确性,为此目的服务。 - -## 为什么基准测试至关重要? - -- **明智的决策:** 洞察速度和准确性之间的权衡。 -- **资源分配:** 理解不同的导出格式在不同硬件上的性能表现。 -- **优化:** 了解哪种导出格式为您的特定用例提供最佳性能。 -- **成本效益:** 根据基准测试结果,更有效地利用硬件资源。 - -### 基准模式的关键指标 - -- **mAP50-95:** 用于物体检测、分割和姿态估计。 -- **accuracy_top5:** 用于图像分类。 -- **推断时间:** 处理每张图片的时间(毫秒)。 - -### 支持的导出格式 - -- **ONNX:** 为了最佳的CPU性能 -- **TensorRT:** 为了最大化的GPU效率 -- **OpenVINO:** 针对Intel硬件的优化 -- **CoreML、TensorFlow SavedModel 等:** 满足多样化部署需求。 - -!!! 技巧 "提示" - - * 导出到ONNX或OpenVINO可实现高达3倍CPU速度提升。 - * 导出到TensorRT可实现高达5倍GPU速度提升。 - -## 使用示例 - -在所有支持的导出格式上运行YOLOv8n基准测试,包括ONNX、TensorRT等。更多导出参数的完整列表请见下方的参数部分。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics.utils.benchmarks import benchmark - - # 在GPU上进行基准测试 - benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) - ``` - === "CLI" - - ```bash - yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 - ``` - -## 参数 - -参数如 `model`、`data`、`imgsz`、`half`、`device` 和 `verbose` 等,为用户提供了灵活性,以便根据具体需求微调基准测试,并轻松比较不同导出格式的性能。 - -| 键 | 值 | 描述 | -|-----------|---------|----------------------------------------------------| -| `model` | `None` | 模型文件路径,如 yolov8n.pt, yolov8n.yaml | -| `data` | `None` | 引用基准测试数据集的YAML路径(标记为 `val`) | -| `imgsz` | `640` | 图像大小作为标量或(h, w)列表,如 (640, 480) | -| `half` | `False` | FP16量化 | -| `int8` | `False` | INT8量化 | -| `device` | `None` | 运行设备,如 cuda device=0 或 device=0,1,2,3 或 device=cpu | -| `verbose` | `False` | 错误时不继续(布尔值),或验证阈值下限(浮点数) | - -## 导出格式 - -基准测试将尝试在下方列出的所有可能的导出格式上自动运行。 - -| 格式 | `format` 参数 | 模型 | 元数据 | 参数 | -|--------------------------------------------------------------------|---------------|---------------------------|-----|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | - -在[导出](https://docs.ultralytics.com/modes/export/)页面查看完整的 `export` 详情。 diff --git a/docs/zh/modes/export.md b/docs/zh/modes/export.md deleted file mode 100644 index dadb1f1944d..00000000000 --- a/docs/zh/modes/export.md +++ /dev/null @@ -1,108 +0,0 @@ ---- -comments: true -description: 如何逐步指导您将 YOLOv8 模型导出到各种格式,如 ONNX、TensorRT、CoreML 等以进行部署。现在就探索! -keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, 导出模型 ---- - -# Ultralytics YOLO 的模型导出 - -Ultralytics YOLO 生态系统和集成 - -## 引言 - -训练模型的最终目标是将其部署到现实世界的应用中。Ultralytics YOLOv8 的导出模式提供了多种选项,用于将您训练好的模型导出到不同的格式,从而可以在各种平台和设备上部署。本综合指南旨在带您逐步了解模型导出的细节,展示如何实现最大的兼容性和性能。 - -

-
- -
- 观看:如何导出自定义训练的 Ultralytics YOLOv8 模型并在网络摄像头上实时推理。 -

- -## 为什么选择 YOLOv8 的导出模式? - -- **多功能性:** 支持导出到多种格式,包括 ONNX、TensorRT、CoreML 等。 -- **性能:** 使用 TensorRT 可实现高达 5 倍 GPU 加速,使用 ONNX 或 OpenVINO 可实现高达 3 倍 CPU 加速。 -- **兼容性:** 使您的模型可以在众多硬件和软件环境中广泛部署。 -- **易用性:** 简单的 CLI 和 Python API,快速直接地进行模型导出。 - -### 导出模式的关键特性 - -以下是一些突出的功能: - -- **一键导出:** 用于导出到不同格式的简单命令。 -- **批量导出:** 支持批推理能力的模型导出。 -- **优化推理:** 导出的模型针对更快的推理时间进行优化。 -- **教学视频:** 提供深入指导和教学,确保流畅的导出体验。 - -!!! Tip "提示" - - * 导出到 ONNX 或 OpenVINO,以实现高达 3 倍的 CPU 加速。 - * 导出到 TensorRT,以实现高达 5 倍的 GPU 加速。 - -## 使用示例 - -将 YOLOv8n 模型导出为 ONNX 或 TensorRT 等不同格式。查看下面的参数部分,了解完整的导出参数列表。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义训练的模型 - - # 导出模型 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # 导出官方模型 - yolo export model=path/to/best.pt format=onnx # 导出自定义训练的模型 - ``` - -## 参数 - -YOLO 模型的导出设置是指用于在其他环境或平台中使用模型时保存或导出模型的各种配置和选项。这些设置会影响模型的性能、大小和与不同系统的兼容性。一些常见的 YOLO 导出设置包括导出的模型文件格式(例如 ONNX、TensorFlow SavedModel)、模型将在哪个设备上运行(例如 CPU、GPU)以及是否包含附加功能,如遮罩或每个框多个标签。其他可能影响导出过程的因素包括模型用途的具体细节以及目标环境或平台的要求或限制。重要的是要仔细考虑和配置这些设置,以确保导出的模型针对预期用例经过优化,并且可以在目标环境中有效使用。 - -| 键 | 值 | 描述 | -|-------------|-----------------|-------------------------------------| -| `format` | `'torchscript'` | 导出的格式 | -| `imgsz` | `640` | 图像尺寸,可以是标量或 (h, w) 列表,比如 (640, 480) | -| `keras` | `False` | 使用 Keras 导出 TF SavedModel | -| `optimize` | `False` | TorchScript:为移动设备优化 | -| `half` | `False` | FP16 量化 | -| `int8` | `False` | INT8 量化 | -| `dynamic` | `False` | ONNX/TensorRT:动态轴 | -| `simplify` | `False` | ONNX/TensorRT:简化模型 | -| `opset` | `None` | ONNX:opset 版本(可选,默认为最新版本) | -| `workspace` | `4` | TensorRT:工作区大小(GB) | -| `nms` | `False` | CoreML:添加 NMS | - -## 导出格式 - -下表中提供了可用的 YOLOv8 导出格式。您可以使用 `format` 参数导出任何格式的模型,比如 `format='onnx'` 或 `format='engine'`。 - -| 格式 | `format` 参数 | 模型 | 元数据 | 参数 | -|--------------------------------------------------------------------|---------------|---------------------------|-----|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/zh/modes/index.md b/docs/zh/modes/index.md deleted file mode 100644 index b82c43ce543..00000000000 --- a/docs/zh/modes/index.md +++ /dev/null @@ -1,73 +0,0 @@ ---- -comments: true -description: 从训练到跟踪,充分利用Ultralytics的YOLOv8。获取支持的每种模式的见解和示例,包括验证、导出和基准测试。 -keywords: Ultralytics, YOLOv8, 机器学习, 目标检测, 训练, 验证, 预测, 导出, 跟踪, 基准测试 ---- - -# Ultralytics YOLOv8 模式 - -Ultralytics YOLO生态系统及整合 - -## 简介 - -Ultralytics YOLOv8不仅仅是另一个目标检测模型;它是一个多功能框架,旨在涵盖机器学习模型的整个生命周期——从数据摄取和模型训练到验证、部署和实际跟踪。每种模式都服务于一个特定的目的,并设计为提供您在不同任务和用例中所需的灵活性和效率。 - -

-
- -
- 观看: Ultralytics模式教程:训练、验证、预测、导出和基准测试。 -

- -### 模式概览 - -理解Ultralytics YOLOv8所支持的不同**模式**对于充分利用您的模型至关重要: - -- **训练(Train)**模式:在自定义或预加载的数据集上微调您的模型。 -- **验证(Val)**模式:训练后进行校验,以验证模型性能。 -- **预测(Predict)**模式:在真实世界数据上释放模型的预测能力。 -- **导出(Export)**模式:以各种格式使模型准备就绪,部署至生产环境。 -- **跟踪(Track)**模式:将您的目标检测模型扩展到实时跟踪应用中。 -- **基准(Benchmark)**模式:在不同部署环境中分析模型的速度和准确性。 - -本综合指南旨在为您提供每种模式的概览和实用见解,帮助您充分发挥YOLOv8的全部潜力。 - -## [训练](train.md) - -训练模式用于在自定义数据集上训练YOLOv8模型。在此模式下,模型将使用指定的数据集和超参数进行训练。训练过程包括优化模型的参数,使其能够准确预测图像中对象的类别和位置。 - -[训练示例](train.md){ .md-button } - -## [验证](val.md) - -验证模式用于训练YOLOv8模型后进行验证。在此模式下,模型在验证集上进行评估,以衡量其准确性和泛化能力。此模式可以用来调整模型的超参数,以改善其性能。 - -[验证示例](val.md){ .md-button } - -## [预测](predict.md) - -预测模式用于使用训练好的YOLOv8模型在新图像或视频上进行预测。在此模式下,模型从检查点文件加载,用户可以提供图像或视频以执行推理。模型预测输入图像或视频中对象的类别和位置。 - -[预测示例](predict.md){ .md-button } - -## [导出](export.md) - -导出模式用于将YOLOv8模型导出为可用于部署的格式。在此模式下,模型被转换为其他软件应用或硬件设备可以使用的格式。当模型部署到生产环境时,此模式十分有用。 - -[导出示例](export.md){ .md-button } - -## [跟踪](track.md) - -跟踪模式用于使用YOLOv8模型实时跟踪对象。在此模式下,模型从检查点文件加载,用户可以提供实时视频流以执行实时对象跟踪。此模式适用于监控系统或自动驾驶汽车等应用。 - -[跟踪示例](track.md){ .md-button } - -## [基准](benchmark.md) - -基准模式用于对YOLOv8的各种导出格式的速度和准确性进行评估。基准提供了有关导出格式大小、其针对目标检测、分割和姿态的`mAP50-95`指标,或针对分类的`accuracy_top5`指标,以及每张图像跨各种导出格式(如ONNX、OpenVINO、TensorRT等)的推理时间(以毫秒为单位)的信息。此信息可以帮助用户根据对速度和准确性的具体需求,选择最佳的导出格式。 - -[基准示例](benchmark.md){ .md-button } diff --git a/docs/zh/modes/predict.md b/docs/zh/modes/predict.md deleted file mode 100644 index 9defcd5260a..00000000000 --- a/docs/zh/modes/predict.md +++ /dev/null @@ -1,714 +0,0 @@ ---- -comments: true -description: 了解如何使用 YOLOv8 预测模式进行各种任务。学习关于不同推理源如图像,视频和数据格式的内容。 -keywords: Ultralytics, YOLOv8, 预测模式, 推理源, 预测任务, 流式模式, 图像处理, 视频处理, 机器学习, 人工智能 ---- - -# 使用 Ultralytics YOLO 进行模型预测 - -Ultralytics YOLO 生态系统和集成 - -## 引言 - -在机器学习和计算机视觉领域,将视觉数据转化为有用信息的过程被称为'推理'或'预测'。Ultralytics YOLOv8 提供了一个强大的功能,称为 **预测模式**,它专为各种数据来源的高性能实时推理而设计。 - -

-
- -
- 观看: 如何从 Ultralytics YOLOv8 模型中提取输出,用于自定义项目。 -

- -## 实际应用领域 - -| 制造业 | 体育 | 安全 | -|:-------------------------------------------------------------------------------------------------------------:|:-------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------:| -| ![车辆零部件检测](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1) | ![足球运动员检测](https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442) | ![人员摔倒检测](https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43) | -| 车辆零部件检测 | 足球运动员检测 | 人员摔倒检测 | - -## 为何使用 Ultralytics YOLO 进行推理? - -以下是考虑使用 YOLOv8 的预测模式满足您的各种推理需求的几个原因: - -- **多功能性:** 能够对图像、视频乃至实时流进行推理。 -- **性能:** 工程化为实时、高速处理而设计,不牺牲准确性。 -- **易用性:** 直观的 Python 和 CLI 接口,便于快速部署和测试。 -- **高度可定制性:** 多种设置和参数可调,依据您的具体需求调整模型的推理行为。 - -### 预测模式的关键特性 - -YOLOv8 的预测模式被设计为强大且多功能,包括以下特性: - -- **兼容多个数据来源:** 无论您的数据是单独图片,图片集合,视频文件,还是实时视频流,预测模式都能胜任。 -- **流式模式:** 使用流式功能生成一个内存高效的 `Results` 对象生成器。在调用预测器时,通过设置 `stream=True` 来启用此功能。 -- **批处理:** 能够在单个批次中处理多个图片或视频帧,进一步加快推理时间。 -- **易于集成:** 由于其灵活的 API,易于与现有数据管道和其他软件组件集成。 - -Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列表,或者当传入 `stream=True` 时,返回一个内存高效的 Python `Results` 对象生成器: - -!!! Example "预测" - - === "使用 `stream=False` 返回列表" - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 预训练的 YOLOv8n 模型 - - # 在图片列表上运行批量推理 - results = model(['im1.jpg', 'im2.jpg']) # 返回 Results 对象列表 - - # 处理结果列表 - for result in results: - boxes = result.boxes # 边界框输出的 Boxes 对象 - masks = result.masks # 分割掩码输出的 Masks 对象 - keypoints = result.keypoints # 姿态输出的 Keypoints 对象 - probs = result.probs # 分类输出的 Probs 对象 - ``` - - === "使用 `stream=True` 返回生成器" - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 预训练的 YOLOv8n 模型 - - # 在图片列表上运行批量推理 - results = model(['im1.jpg', 'im2.jpg'], stream=True) # 返回 Results 对象生成器 - - # 处理结果生成器 - for result in results: - boxes = result.boxes # 边界框输出的 Boxes 对象 - masks = result.masks # 分割掩码输出的 Masks 对象 - keypoints = result.keypoints # 姿态输出的 Keypoints 对象 - probs = result.probs # 分类输出的 Probs 对象 - ``` - -## 推理来源 - -YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括静态图像、视频流和各种数据格式。表格还表示了每种来源是否可以在流式模式下使用,使用参数 `stream=True` ✅。流式模式对于处理视频或实时流非常有利,因为它创建了结果的生成器,而不是将所有帧加载到内存。 - -!!! Tip "提示" - - 使用 `stream=True` 处理长视频或大型数据集来高效地管理内存。当 `stream=False` 时,所有帧或数据点的结果都将存储在内存中,这可能很快导致内存不足错误。相对地,`stream=True` 使用生成器,只保留当前帧或数据点的结果在内存中,显著减少了内存消耗,防止内存不足问题。 - -| 来源 | 参数 | 类型 | 备注 | -|-----------|--------------------------------------------|----------------|----------------------------------------------------| -| 图像 | `'image.jpg'` | `str` 或 `Path` | 单个图像文件。 | -| URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | 图像的 URL 地址。 | -| 截屏 | `'screen'` | `str` | 截取屏幕图像。 | -| PIL | `Image.open('im.jpg')` | `PIL.Image` | RGB 通道的 HWC 格式图像。 | -| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | BGR 通道的 HWC 格式图像 `uint8 (0-255)`。 | -| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | BGR 通道的 HWC 格式图像 `uint8 (0-255)`。 | -| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | RGB 通道的 BCHW 格式图像 `float32 (0.0-1.0)`。 | -| CSV | `'sources.csv'` | `str` 或 `Path` | 包含图像、视频或目录路径的 CSV 文件。 | -| 视频 ✅ | `'video.mp4'` | `str` 或 `Path` | 如 MP4, AVI 等格式的视频文件。 | -| 目录 ✅ | `'path/'` | `str` 或 `Path` | 包含图像或视频文件的目录路径。 | -| 通配符 ✅ | `'path/*.jpg'` | `str` | 匹配多个文件的通配符模式。使用 `*` 字符作为通配符。 | -| YouTube ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | YouTube 视频的 URL 地址。 | -| 流媒体 ✅ | `'rtsp://example.com/media.mp4'` | `str` | RTSP, RTMP, TCP 或 IP 地址等流协议的 URL 地址。 | -| 多流媒体 ✅ | `'list.streams'` | `str` 或 `Path` | 一个流 URL 每行的 `*.streams` 文本文件,例如 8 个流将以 8 的批处理大小运行。 | - -下面为每种来源类型使用代码的示例: - -!!! Example "预测来源" - - === "图像" - 对图像文件进行推理。 - ```python - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 定义图像文件的路径 - source = 'path/to/image.jpg' - - # 对来源进行推理 - results = model(source) # Results 对象列表 - ``` - - === "截屏" - 对当前屏幕内容作为截屏进行推理。 - ```python - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 定义当前截屏为来源 - source = 'screen' - - # 对来源进行推理 - results = model(source) # Results 对象列表 - ``` - - === "URL" - 对通过 URL 远程托管的图像或视频进行推理。 - ```python - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 定义远程图像或视频 URL - source = 'https://ultralytics.com/images/bus.jpg' - - # 对来源进行推理 - results = model(source) # Results 对象列表 - ``` - - === "PIL" - 对使用 Python Imaging Library (PIL) 打开的图像进行推理。 - ```python - from PIL import Image - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 使用 PIL 打开图像 - source = Image.open('path/to/image.jpg') - - # 对来源进行推理 - results = model(source) # Results 对象列表 - ``` - - === "OpenCV" - 对使用 OpenCV 读取的图像进行推理。 - ```python - import cv2 - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 使用 OpenCV 读取图像 - source = cv2.imread('path/to/image.jpg') - - # 对来源进行推理 - results = model(source) # Results 对象列表 - ``` - - === "numpy" - 对表示为 numpy 数组的图像进行推理。 - ```python - import numpy as np - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 创建一个 HWC 形状 (640, 640, 3) 的随机 numpy 数组,数值范围 [0, 255] 类型为 uint8 - source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') - - # 对来源进行推理 - results = model(source) # Results 对象列表 - ``` - - === "torch" - 对表示为 PyTorch 张量的图像进行推理。 - ```python - import torch - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 创建一个 BCHW 形状 (1, 3, 640, 640) 的随机 torch 张量,数值范围 [0, 1] 类型为 float32 - source = torch.rand(1, 3, 640, 640, dtype=torch.float32) - - # 对来源进行推理 - results = model(source) # Results 对象列表 - ``` - - === "CSV" - 对 CSV 文件中列出的图像、URLs、视频和目录进行推理。 - ```python - import torch - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 定义一个包含图像、URLs、视频和目录路径的 CSV 文件路径 - source = 'path/to/file.csv' - - # 对来源进行推理 - results = model(source) # Results 对象列表 - ``` - - === "视频" - 对视频文件进行推理。使用 `stream=True` 时,可以创建一个 Results 对象的生成器,减少内存使用。 - ```python - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 定义视频文件路径 - source = 'path/to/video.mp4' - - # 对来源进行推理 - results = model(source, stream=True) # Results 对象的生成器 - ``` - - === "目录" - 对目录中的所有图像和视频进行推理。要包含子目录中的图像和视频,使用通配符模式,例如 `path/to/dir/**/*`。 - ```python - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 定义包含图像和视频文件用于推理的目录路径 - source = 'path/to/dir' - - # 对来源进行推理 - results = model(source, stream=True) # Results 对象的生成器 - ``` - - === "通配符" - 对与 `*` 字符匹配的所有图像和视频进行推理。 - ```python - from ultralytics import YOLO - - # 加载预训练的 YOLOv8n 模型 - model = YOLO('yolov8n.pt') - - # 定义一个目录下所有 JPG 文件的通配符搜索 - source = 'path/to/dir/*.jpg' - - # 或定义一个包括子目录的所有 JPG 文件的递归通配符搜索 - source = 'path/to/dir/**/*.jpg' - - # 对来源进行推理 - results = model(source, stream=True) # Results 对象的生成器 - ``` - - === "YouTube" - 在YouTube视频上运行推理。通过使用`stream=True`,您可以创建一个Results对象的生成器,以减少长视频的内存使用。 - ```python - from ultralytics import YOLO - - # 加载预训练的YOLOv8n模型 - model = YOLO('yolov8n.pt') - - # 定义源为YouTube视频URL - source = 'https://youtu.be/LNwODJXcvt4' - - # 在源上运行推理 - results = model(source, stream=True) # Results对象的生成器 - ``` - - === "Streams" - 使用RTSP、RTMP、TCP和IP地址协议在远程流媒体源上运行推理。如果在`*.streams`文本文件中提供了多个流,则将运行批量推理,例如,8个流将以批大小8运行,否则单个流将以批大小1运行。 - ```python - from ultralytics import YOLO - - # 加载预训练的YOLOv8n模型 - model = YOLO('yolov8n.pt') - - # 单流媒体源批大小1推理 - source = 'rtsp://example.com/media.mp4' # RTSP、RTMP、TCP或IP流媒体地址 - - # 多个流媒体源的批量推理(例如,8个流的批大小为8) - source = 'path/to/list.streams' # *.streams文本文件,每行一个流媒体地址 - - # 在源上运行推理 - results = model(source, stream=True) # Results对象的生成器 - ``` - -## 推理参数 - -`model.predict()` 在推理时接受多个参数,可以用来覆盖默认值: - -!!! Example "示例" - - ```python - from ultralytics import YOLO - - # 加载预训练的YOLOv8n模型 - model = YOLO('yolov8n.pt') - - # 在'bus.jpg'上运行推理,并附加参数 - model.predict('bus.jpg', save=True, imgsz=320, conf=0.5) - ``` - -支持的所有参数: - -| 名称 | 类型 | 默认值 | 描述 | -|-----------------|----------------|------------------------|------------------------------------------| -| `source` | `str` | `'ultralytics/assets'` | 图像或视频的源目录 | -| `conf` | `float` | `0.25` | 检测对象的置信度阈值 | -| `iou` | `float` | `0.7` | 用于NMS的交并比(IoU)阈值 | -| `imgsz` | `int or tuple` | `640` | 图像大小,可以是标量或(h, w)列表,例如(640, 480) | -| `half` | `bool` | `False` | 使用半精度(FP16) | -| `device` | `None or str` | `None` | 运行设备,例如 cuda device=0/1/2/3 或 device=cpu | -| `show` | `bool` | `False` | 如果可能,显示结果 | -| `save` | `bool` | `False` | 保存带有结果的图像 | -| `save_txt` | `bool` | `False` | 将结果保存为.txt文件 | -| `save_conf` | `bool` | `False` | 保存带有置信度分数的结果 | -| `save_crop` | `bool` | `False` | 保存带有结果的裁剪图像 | -| `show_labels` | `bool` | `True` | 隐藏标签 | -| `show_conf` | `bool` | `True` | 隐藏置信度分数 | -| `max_det` | `int` | `300` | 每张图像的最大检测数量 | -| `vid_stride` | `bool` | `False` | 视频帧速率跳跃 | -| `stream_buffer` | `bool` | `False` | 缓冲所有流媒体帧(True)或返回最新帧(False) | -| `line_width` | `None or int` | `None` | 边框线宽度。如果为None,则按图像大小缩放。 | -| `visualize` | `bool` | `False` | 可视化模型特征 | -| `augment` | `bool` | `False` | 应用图像增强到预测源 | -| `agnostic_nms` | `bool` | `False` | 类别不敏感的NMS | -| `retina_masks` | `bool` | `False` | 使用高分辨率分割掩码 | -| `classes` | `None or list` | `None` | 按类别过滤结果,例如 classes=0,或 classes=[0,2,3] | -| `boxes` | `bool` | `True` | 在分割预测中显示框 | - -## 图像和视频格式 - -YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/utils.py)所指定。请参阅下表了解有效的后缀名和示例预测命令。 - -### 图像 - -下表包含了Ultralytics支持的有效图像格式。 - -| 图像后缀 | 示例预测命令 | 参考链接 | -|-------|----------------------------------|-------------------------------------------------------------------------------| -| .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) | -| .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) | -| .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | -| .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | -| .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) | -| .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) | -| .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | -| .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | -| .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) | -| .pfm | `yolo predict source=image.pfm` | [便携式浮点映射](https://en.wikipedia.org/wiki/Netpbm#File_formats) | - -### 视频 - -以下表格包含有效的Ultralytics视频格式。 - -| 视频后缀名 | 示例预测命令 | 参考链接 | -|-------|----------------------------------|----------------------------------------------------------------------| -| .asf | `yolo predict source=video.asf` | [高级系统格式](https://en.wikipedia.org/wiki/Advanced_Systems_Format) | -| .avi | `yolo predict source=video.avi` | [音视频交错](https://en.wikipedia.org/wiki/Audio_Video_Interleave) | -| .gif | `yolo predict source=video.gif` | [图形交换格式](https://en.wikipedia.org/wiki/GIF) | -| .m4v | `yolo predict source=video.m4v` | [MPEG-4第14部分](https://en.wikipedia.org/wiki/M4V) | -| .mkv | `yolo predict source=video.mkv` | [Matroska](https://en.wikipedia.org/wiki/Matroska) | -| .mov | `yolo predict source=video.mov` | [QuickTime文件格式](https://en.wikipedia.org/wiki/QuickTime_File_Format) | -| .mp4 | `yolo predict source=video.mp4` | [MPEG-4第14部分](https://en.wikipedia.org/wiki/MPEG-4_Part_14) | -| .mpeg | `yolo predict source=video.mpeg` | [MPEG-1第2部分](https://en.wikipedia.org/wiki/MPEG-1) | -| .mpg | `yolo predict source=video.mpg` | [MPEG-1第2部分](https://en.wikipedia.org/wiki/MPEG-1) | -| .ts | `yolo predict source=video.ts` | [MPEG传输流](https://en.wikipedia.org/wiki/MPEG_transport_stream) | -| .wmv | `yolo predict source=video.wmv` | [Windows媒体视频](https://en.wikipedia.org/wiki/Windows_Media_Video) | -| .webm | `yolo predict source=video.webm` | [WebM项目](https://en.wikipedia.org/wiki/WebM) | - -## 处理结果 - -所有Ultralytics的`predict()`调用都将返回一个`Results`对象列表: - -!!! Example "结果" - - ```python - from ultralytics import YOLO - - # 加载预训练的YOLOv8n模型 - model = YOLO('yolov8n.pt') - - # 在图片上运行推理 - results = model('bus.jpg') # 1个Results对象的列表 - results = model(['bus.jpg', 'zidane.jpg']) # 2个Results对象的列表 - ``` - -`Results`对象具有以下属性: - -| 属性 | 类型 | 描述 | -|--------------|-----------------|------------------------------| -| `orig_img` | `numpy.ndarray` | 原始图像的numpy数组。 | -| `orig_shape` | `tuple` | 原始图像的形状,格式为(高度,宽度)。 | -| `boxes` | `Boxes, 可选` | 包含检测边界框的Boxes对象。 | -| `masks` | `Masks, 可选` | 包含检测掩码的Masks对象。 | -| `probs` | `Probs, 可选` | 包含每个类别的概率的Probs对象,用于分类任务。 | -| `keypoints` | `Keypoints, 可选` | 包含每个对象检测到的关键点的Keypoints对象。 | -| `speed` | `dict` | 以毫秒为单位的每张图片的预处理、推理和后处理速度的字典。 | -| `names` | `dict` | 类别名称的字典。 | -| `path` | `str` | 图像文件的路径。 | - -`Results`对象具有以下方法: - -| 方法 | 返回类型 | 描述 | -|-----------------|-----------------|----------------------------------------| -| `__getitem__()` | `Results` | 返回指定索引的Results对象。 | -| `__len__()` | `int` | 返回Results对象中的检测数量。 | -| `update()` | `None` | 更新Results对象的boxes, masks和probs属性。 | -| `cpu()` | `Results` | 将所有张量移动到CPU内存上的Results对象的副本。 | -| `numpy()` | `Results` | 将所有张量转换为numpy数组的Results对象的副本。 | -| `cuda()` | `Results` | 将所有张量移动到GPU内存上的Results对象的副本。 | -| `to()` | `Results` | 返回将张量移动到指定设备和dtype的Results对象的副本。 | -| `new()` | `Results` | 返回一个带有相同图像、路径和名称的新Results对象。 | -| `keys()` | `List[str]` | 返回非空属性名称的列表。 | -| `plot()` | `numpy.ndarray` | 绘制检测结果。返回带有注释的图像的numpy数组。 | -| `verbose()` | `str` | 返回每个任务的日志字符串。 | -| `save_txt()` | `None` | 将预测保存到txt文件中。 | -| `save_crop()` | `None` | 将裁剪的预测保存到`save_dir/cls/file_name.jpg`。 | -| `tojson()` | `None` | 将对象转换为JSON格式。 | - -有关更多详细信息,请参阅`Results`类的[文档](/../reference/engine/results.md)。 - -### 边界框(Boxes) - -`Boxes`对象可用于索引、操作和转换边界框到不同格式。 - -!!! Example "边界框(Boxes)" - - ```python - from ultralytics import YOLO - - # 加载预训练的YOLOv8n模型 - model = YOLO('yolov8n.pt') - - # 在图片上运行推理 - results = model('bus.jpg') - - # 查看结果 - for r in results: - print(r.boxes) # 打印包含检测边界框的Boxes对象 - ``` - -以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和description: - -| 名称 | 类型 | 描述 | -|-----------|---------------------|-------------------------| -| `cpu()` | 方法 | 将对象移动到CPU内存。 | -| `numpy()` | 方法 | 将对象转换为numpy数组。 | -| `cuda()` | 方法 | 将对象移动到CUDA内存。 | -| `to()` | 方法 | 将对象移动到指定的设备。 | -| `xyxy` | 属性 (`torch.Tensor`) | 以xyxy格式返回边界框。 | -| `conf` | 属性 (`torch.Tensor`) | 返回边界框的置信度值。 | -| `cls` | 属性 (`torch.Tensor`) | 返回边界框的类别值。 | -| `id` | 属性 (`torch.Tensor`) | 返回边界框的跟踪ID(如果可用)。 | -| `xywh` | 属性 (`torch.Tensor`) | 以xywh格式返回边界框。 | -| `xyxyn` | 属性 (`torch.Tensor`) | 以原始图像大小归一化的xyxy格式返回边界框。 | -| `xywhn` | 属性 (`torch.Tensor`) | 以原始图像大小归一化的xywh格式返回边界框。 | - -有关更多详细信息,请参阅`Boxes`类的[文档](/../reference/engine/results.md)。 - -### 掩码(Masks) - -`Masks`对象可用于索引、操作和将掩码转换为分段。 - -!!! Example "掩码(Masks)" - - ```python - from ultralytics import YOLO - - # 加载预训练的YOLOv8n-seg分割模型 - model = YOLO('yolov8n-seg.pt') - - # 在图片上运行推理 - results = model('bus.jpg') # results列表 - - # 查看结果 - for r in results: - print(r.masks) # 打印包含检测到的实例掩码的Masks对象 - ``` - -以下是`Masks`类方法和属性的表格,包括它们的名称、类型和description: - -| 名称 | 类型 | 描述 | -|-----------|---------------------|----------------------| -| `cpu()` | 方法 | 将掩码张量返回到CPU内存。 | -| `numpy()` | 方法 | 将掩码张量转换为numpy数组。 | -| `cuda()` | 方法 | 将掩码张量返回到GPU内存。 | -| `to()` | 方法 | 将掩码张量带有指定设备和dtype返回。 | -| `xyn` | 属性 (`torch.Tensor`) | 以张量表示的归一化分段的列表。 | -| `xy` | 属性 (`torch.Tensor`) | 以像素坐标表示的分段的张量列表。 | - -有关更多详细信息,请参阅`Masks`类的[文档](/../reference/engine/results.md)。 - -### 关键点 (Keypoints) - -`Keypoints` 对象可以用于索引、操作和规范化坐标。 - -!!! Example "关键点" - - ```python - from ultralytics import YOLO - - # 加载预训练的YOLOv8n-pose 姿态模型 - model = YOLO('yolov8n-pose.pt') - - # 在图像上运行推理 - results = model('bus.jpg') # 结果列表 - - # 查看结果 - for r in results: - print(r.keypoints) # 打印包含检测到的关键点的Keypoints对象 - ``` - -以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和description: - -| 名称 | 类型 | 描述 | -|-----------|--------------------|---------------------------| -| `cpu()` | 方法 | 返回CPU内存上的关键点张量。 | -| `numpy()` | 方法 | 返回作为numpy数组的关键点张量。 | -| `cuda()` | 方法 | 返回GPU内存上的关键点张量。 | -| `to()` | 方法 | 返回指定设备和dtype的关键点张量。 | -| `xyn` | 属性(`torch.Tensor`) | 规范化关键点的列表,表示为张量。 | -| `xy` | 属性(`torch.Tensor`) | 以像素坐标表示的关键点列表,表示为张量。 | -| `conf` | 属性(`torch.Tensor`) | 返回关键点的置信度值(如果有),否则返回None。 | - -有关更多详细信息,请参阅`Keypoints`类[文档](/../reference/engine/results.md)。 - -### 概率 (Probs) - -`Probs` 对象可以用于索引,获取分类的 `top1` 和 `top5` 索引和分数。 - -!!! Example "概率" - - ```python - from ultralytics import YOLO - - # 加载预训练的YOLOv8n-cls 分类模型 - model = YOLO('yolov8n-cls.pt') - - # 在图像上运行推理 - results = model('bus.jpg') # 结果列表 - - # 查看结果 - for r in results: - print(r.probs) # 打印包含检测到的类别概率的Probs对象 - ``` - -以下是`Probs`类的方法和属性的表格总结: - -| 名称 | 类型 | 描述 | -|------------|--------------------|-------------------------| -| `cpu()` | 方法 | 返回CPU内存上的概率张量的副本。 | -| `numpy()` | 方法 | 返回概率张量的副本作为numpy数组。 | -| `cuda()` | 方法 | 返回GPU内存上的概率张量的副本。 | -| `to()` | 方法 | 返回带有指定设备和dtype的概率张量的副本。 | -| `top1` | 属性(`int`) | 第1类的索引。 | -| `top5` | 属性(`list[int]`) | 前5类的索引。 | -| `top1conf` | 属性(`torch.Tensor`) | 第1类的置信度。 | -| `top5conf` | 属性(`torch.Tensor`) | 前5类的置信度。 | - -有关更多详细信息,请参阅`Probs`类[文档](/../reference/engine/results.md)。 - -## 绘制结果 - -您可以使用`Result`对象的`plot()`方法来可视化预测结果。它会将`Results`对象中包含的所有预测类型(框、掩码、关键点、概率等)绘制到一个numpy数组上,然后可以显示或保存。 - -!!! Example "绘制" - - ```python - from PIL import Image - from ultralytics import YOLO - - # 加载预训练的YOLOv8n模型 - model = YOLO('yolov8n.pt') - - # 在'bus.jpg'上运行推理 - results = model('bus.jpg') # 结果列表 - - # 展示结果 - for r in results: - im_array = r.plot() # 绘制包含预测结果的BGR numpy数组 - im = Image.fromarray(im_array[..., ::-1]) # RGB PIL图像 - im.show() # 显示图像 - im.save('results.jpg') # 保存图像 - ``` - - `plot()`方法支持以下参数: - - | 参数 | 类型 | 描述 | 默认值 | - |---------------|-----------------|------------------------------------------------------------------------|---------------| - | `conf` | `bool` | 是否绘制检测置信度分数。 | `True` | - | `line_width` | `float` | 边框线宽度。如果为None,则按图像大小缩放。 | `None` | - | `font_size` | `float` | 文本字体大小。如果为None,则按图像大小缩放。 | `None` | - | `font` | `str` | 文本字体。 | `'Arial.ttf'` | - | `pil` | `bool` | 是否将图像返回为PIL图像。 | `False` | - | `img` | `numpy.ndarray` | 绘制到另一个图像上。如果没有,则绘制到原始图像上。 | `None` | - | `im_gpu` | `torch.Tensor` | 形状为(1, 3, 640, 640)的规范化GPU图像,用于更快地绘制掩码。 | `None` | - | `kpt_radius` | `int` | 绘制关键点的半径。默认为5。 | `5` | - | `kpt_line` | `bool` | 是否绘制连接关键点的线条。 | `True` | - | `labels` | `bool` | 是否绘制边框标签。 | `True` | - | `boxes` | `bool` | 是否绘制边框。 | `True` | - | `masks` | `bool` | 是否绘制掩码。 | `True` | - | `probs` | `bool` | 是否绘制分类概率 | `True` | - -## 线程安全推理 - -在多线程中并行运行多个YOLO模型时,确保推理过程的线程安全性至关重要。线程安全的推理保证了每个线程的预测结果是隔离的,不会相互干扰,避免竞态条件,确保输出的一致性和可靠性。 - -在多线程应用中使用YOLO模型时,重要的是为每个线程实例化单独的模型对象,或使用线程本地存储来防止冲突: - -!!! Example "线程安全推理" - - 在每个线程内实例化单个模型以实现线程安全的推理: - ```python - from ultralytics import YOLO - from threading import Thread - - def thread_safe_predict(image_path): - # 在线程内实例化新模型 - local_model = YOLO("yolov8n.pt") - results = local_model.predict(image_path) - # 处理结果 - - # 启动拥有各自模型实例的线程 - Thread(target=thread_safe_predict, args=("image1.jpg",)).start() - Thread(target=thread_safe_predict, args=("image2.jpg",)).start() - ``` - -有关YOLO模型线程安全推理的深入讨论和逐步指导,请参阅我们的[YOLO线程安全推理指南](/../guides/yolo-thread-safe-inference.md)。该指南将为您提供避免常见陷阱并确保多线程推理顺利进行所需的所有必要信息。 - -## 流媒体源`for`循环 - -以下是使用OpenCV(`cv2`)和YOLOv8在视频帧上运行推理的Python脚本。此脚本假设您已经安装了必要的包(`opencv-python`和`ultralytics`)。 - -!!! Example "流媒体for循环" - - ```python - import cv2 - from ultralytics import YOLO - - # 加载YOLOv8模型 - model = YOLO('yolov8n.pt') - - # 打开视频文件 - video_path = "path/to/your/video/file.mp4" - cap = cv2.VideoCapture(video_path) - - # 遍历视频帧 - while cap.isOpened(): - # 从视频中读取一帧 - success, frame = cap.read() - - if success: - # 在该帧上运行YOLOv8推理 - results = model(frame) - - # 在帧上可视化结果 - annotated_frame = results[0].plot() - - # 显示带注释的帧 - cv2.imshow("YOLOv8推理", annotated_frame) - - # 如果按下'q'则中断循环 - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # 如果视频结束则中断循环 - break - - # 释放视频捕获对象并关闭显示窗口 - cap.release() - cv2.destroyAllWindows() - ``` - -此脚本将对视频的每一帧进行预测,可视化结果,并在窗口中显示。按下'q'键可以退出循环。 diff --git a/docs/zh/modes/track.md b/docs/zh/modes/track.md deleted file mode 100644 index 95e67454f1e..00000000000 --- a/docs/zh/modes/track.md +++ /dev/null @@ -1,273 +0,0 @@ ---- -comments: true -description: 学习如何使用Ultralytics YOLO进行视频流中的物体追踪。指南包括使用不同的追踪器和自定义追踪器配置。 -keywords: Ultralytics, YOLO, 物体追踪, 视频流, BoT-SORT, ByteTrack, Python 指南, CLI 指南 ---- - -# 使用Ultralytics YOLO进行多物体追踪 - -多物体追踪示例 - -视频分析领域的物体追踪是一项关键任务,它不仅能标识出帧内物体的位置和类别,还能在视频进行过程中为每个检测到的物体保持一个唯一的ID。应用场景无限广阔——从监控与安全到实时体育分析。 - -## 为什么选择Ultralytics YOLO进行物体追踪? - -Ultralytics 追踪器的输出与标准的物体检测结果一致,但增加了物体ID的附加值。这使其易于追踪视频流中的物体并进行后续分析。以下是您应考虑使用Ultralytics YOLO来满足您物体追踪需求的原因: - -- **效率:** 实时处理视频流,同时保持准确性。 -- **灵活性:** 支持多种追踪算法和配置。 -- **易用性:** 简单的Python API和CLI选项,便于快速集成和部署。 -- **可定制性:** 易于使用自定义训练的YOLO模型,允许集成到特定领域的应用中。 - -

-
- -
- 观看:使用Ultralytics YOLOv8的物体检测与追踪。 -

- -## 实际应用场景 - -| 交通运输 | 零售 | 水产养殖 | -|:----------------------------------------------------------------------------------------------------------:|:----------------------------------------------------------------------------------------------------------:|:----------------------------------------------------------------------------------------------------------:| -| ![车辆追踪](https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab) | ![人员追踪](https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527) | ![鱼类追踪](https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142) | -| 车辆追踪 | 人员追踪 | 鱼类追踪 | - -## 一瞥特点 - -Ultralytics YOLO扩展了其物体检测功能,以提供强大且多功能的物体追踪: - -- **实时追踪:** 在高帧率视频中无缝追踪物体。 -- **支持多个追踪器:** 从多种成熟的追踪算法中选择。 -- **自定义追踪器配置:** 通过调整各种参数来定制追踪算法,以满足特定需求。 - -## 可用的追踪器 - -Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置文件如`tracker=tracker_type.yaml`来启用: - -* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - 使用 `botsort.yaml` 启用此追踪器。 -* [ByteTrack](https://github.com/ifzhang/ByteTrack) - 使用 `bytetrack.yaml` 启用此追踪器。 - -默认追踪器是BoT-SORT。 - -## 追踪 - -要在视频流中运行追踪器,请使用已训练的检测、分割或姿态模型,例如YOLOv8n、YOLOv8n-seg和YOLOv8n-pose。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载官方或自定义模型 - model = YOLO('yolov8n.pt') # 加载一个官方的检测模型 - model = YOLO('yolov8n-seg.pt') # 加载一个官方的分割模型 - model = YOLO('yolov8n-pose.pt') # 加载一个官方的姿态模型 - model = YOLO('path/to/best.pt') # 加载一个自定义训练的模型 - - # 使用模型进行追踪 - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # 使用默认追踪器进行追踪 - results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # 使用ByteTrack追踪器进行追踪 - ``` - - === "CLI" - - ```bash - # 使用命令行界面进行各种模型的追踪 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # 官方检测模型 - yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # 官方分割模型 - yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # 官方姿态模型 - yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # 自定义训练模型 - - # 使用ByteTrack追踪器进行追踪 - yolo track model=path/to/best.pt tracker="bytetrack.yaml" - ``` - -如上所述,Detect、Segment和Pose模型在视频或流媒体源上运行时均可进行追踪。 - -## 配置 - -### 追踪参数 - -追踪配置与预测模式共享一些属性,如`conf`、`iou`和`show`。有关进一步配置,请参见[预测](https://docs.ultralytics.com/modes/predict/)模型页面。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 配置追踪参数并运行追踪器 - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) - ``` - - === "CLI" - - ```bash - # 使用命令行界面配置追踪参数并运行追踪器 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show - ``` - -### 选择追踪器 - -Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操作,只需从[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)中复制一个追踪器配置文件(例如,`custom_tracker.yaml`)并根据您的需求修改任何配置(除了`tracker_type`)。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型并使用自定义配置文件运行追踪器 - model = YOLO('yolov8n.pt') - results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') - ``` - - === "CLI" - - ```bash - # 使用命令行界面加载模型并使用自定义配置文件运行追踪器 - yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' - ``` - -有关追踪参数的全面列表,请参考[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)页面。 - -## Python示例 - -### 持续追踪循环 - -这是一个使用OpenCV(`cv2`)和YOLOv8在视频帧上运行物体追踪的Python脚本。此脚本假设您已经安装了必要的包(`opencv-python`和`ultralytics`)。参数`persist=True`告诉追踪器当前的图像或帧是序列中的下一个,并且期望在当前图像中从上一个图像中获得追踪路径。 - -!!! Example "带追踪功能的流循环" - - ```python - import cv2 - from ultralytics import YOLO - - # 加载YOLOv8模型 - model = YOLO('yolov8n.pt') - - # 打开视频文件 - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # 循环遍历视频帧 - while cap.isOpened(): - # 从视频读取一帧 - success, frame = cap.read() - - if success: - # 在帧上运行YOLOv8追踪,持续追踪帧间的物体 - results = model.track(frame, persist=True) - - # 在帧上展示结果 - annotated_frame = results[0].plot() - - # 展示带注释的帧 - cv2.imshow("YOLOv8 Tracking", annotated_frame) - - # 如果按下'q'则退出循环 - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # 如果视频结束则退出循环 - break - - # 释放视频捕获对象并关闭显示窗口 - cap.release() - cv2.destroyAllWindows() - ``` - -请注意从`model(frame)`更改为`model.track(frame)`的变化,这使能够启用物体追踪而不只是简单的检测。这个修改的脚本将在视频的每一帧上运行追踪器,可视化结果,并在窗口中显示它们。通过按'q'可以退出循环。 - -### 随时间绘制追踪路径 - -在连续帧上可视化物体追踪路径可以提供有关视频中检测到的物体的运动模式和行为的有价值的洞见。使用Ultralytics YOLOv8,绘制这些路径是一个无缝且高效的过程。 - -在以下示例中,我们演示了如何利用YOLOv8的追踪功能在多个视频帧上绘制检测物体的移动。这个脚本涉及打开视频文件、逐帧读取,并使用YOLO模型识别并追踪各种物体。通过保留检测到的边界框的中心点并连接它们,我们可以绘制表示跟踪物体路径的线条。 - -!!! Example "在多个视频帧上绘制追踪路径" - - ```python - from collections import defaultdict - - import cv2 - import numpy as np - - from ultralytics import YOLO - - # 加载YOLOv8模型 - model = YOLO('yolov8n.pt') - - # 打开视频文件 - video_path = "path/to/video.mp4" - cap = cv2.VideoCapture(video_path) - - # 存储追踪历史 - track_history = defaultdict(lambda: []) - - # 循环遍历视频帧 - while cap.isOpened(): - # 从视频读取一帧 - success, frame = cap.read() - - if success: - # 在帧上运行YOLOv8追踪,持续追踪帧间的物体 - results = model.track(frame, persist=True) - - # 获取框和追踪ID - boxes = results[0].boxes.xywh.cpu() - track_ids = results[0].boxes.id.int().cpu().tolist() - - # 在帧上展示结果 - annotated_frame = results[0].plot() - - # 绘制追踪路径 - for box, track_id in zip(boxes, track_ids): - x, y, w, h = box - track = track_history[track_id] - track.append((float(x), float(y))) # x, y中心点 - if len(track) > 30: # 在90帧中保留90个追踪点 - track.pop(0) - - # 绘制追踪线 - points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2)) - cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10) - - # 展示带注释的帧 - cv2.imshow("YOLOv8 Tracking", annotated_frame) - - # 如果按下'q'则退出循环 - if cv2.waitKey(1) & 0xFF == ord("q"): - break - else: - # 如果视频结束则退出循环 - break - - # 释放视频捕获对象并关闭显示窗口 - cap.release() - cv2.destroyAllWindows() - ``` - -### 多线程追踪 - -多线程追踪提供了同时在多个视频流上运行物体追踪的能力。当处理多个视频输入,例如来自多个监控摄像头时,这一功能特别有用,其中并发处理可以大大提高效率和性能。 - -在提供的Python脚本中,我们利用Python的`threading`模块来同时运行多个追踪器实例。每个线程负责在一个视频文件上运行追踪器,所有线程在后台同时运行。 - -为了确保每个线程接收到正确的参数(视频文件、要使用的模型和文件索引),我们定义了一个函数`run_tracker_in_thread`,它接受这些参数并包含主追踪循环。此函数逐帧读取视频,运行追踪器,并显示结果。 - -在这个例子中,两个不同的模型被使用:`yolov8n.pt`和`yolov8n-seg.pt`,每个模型都在不同的视频文件中追踪物体。视频文件分别指定在`video_file1`和`video_file2`中。 - -在`threading.Thread`中参数`daemon=True`表示,这些线程会在主程序结束时关闭。然后我们用`start()`来开始线程,并使用`join()`来使主线程等待,直到两个追踪线程都结束。 - -最后,在所有线程完成任务后,使用`cv2.destroyAllWindows()`关闭显示结果的窗口。 diff --git a/docs/zh/modes/train.md b/docs/zh/modes/train.md deleted file mode 100644 index f9c8c3c0b80..00000000000 --- a/docs/zh/modes/train.md +++ /dev/null @@ -1,294 +0,0 @@ ---- -comments: true -description: 使用Ultralytics YOLO训练YOLOv8模型的逐步指南,包括单GPU和多GPU训练示例 -keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据集, GPU训练, 多GPU, 超参数, CLI示例, Python示例 ---- - -# 使用Ultralytics YOLO进行模型训练 - -Ultralytics YOLO生态系统与集成 - -## 引言 - -训练深度学习模型涉及向其输入数据并调整参数,以便准确预测。Ultralytics YOLOv8的训练模式旨在有效高效地训练目标检测模型,充分利用现代硬件功能。本指南旨在涵盖使用YOLOv8的强大功能集训练自己模型的所有细节。 - -

-
- -
- 观看: 如何在Google Colab中用你的自定义数据集训练一个YOLOv8模型。 -

- -## 为什么选择Ultralytics YOLO进行训练? - -以下是选择YOLOv8训练模式的一些有力理由: - -- **效率:** 充分利用您的硬件资源,无论您是使用单GPU设置还是跨多个GPU扩展。 -- **多功能:** 除了可随时获取的数据集(如COCO、VOC和ImageNet)之外,还可以对自定义数据集进行训练。 -- **用户友好:** 简单而强大的CLI和Python接口,为您提供直接的训练体验。 -- **超参数灵活性:** 可定制的广泛超参数范围,以微调模型性能。 - -### 训练模式的关键特性 - -以下是YOLOv8训练模式的一些显著特点: - -- **自动数据集下载:** 标准数据集如COCO、VOC和ImageNet将在首次使用时自动下载。 -- **多GPU支持:** 无缝地跨多个GPU扩展您的训练工作,以加快过程。 -- **超参数配置:** 通过YAML配置文件或CLI参数修改超参数的选项。 -- **可视化和监控:** 实时跟踪训练指标并可视化学习过程,以获得更好的洞察力。 - -!!! 小贴士 "小贴士" - - * 如COCO、VOC、ImageNet等YOLOv8数据集在首次使用时会自动下载,即 `yolo train data=coco.yaml` - -## 使用示例 - -在COCO128数据集上训练YOLOv8n模型100个时期,图像大小为640。可以使用`device`参数指定训练设备。如果没有传递参数,并且有可用的GPU,则将使用GPU `device=0`,否则将使用`device=cpu`。有关完整列表的训练参数,请参见下面的参数部分。 - -!!! Example "单GPU和CPU训练示例" - - 设备将自动确定。如果有可用的GPU,那么将使用它,否则将在CPU上开始训练。 - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载一个模型 - model = YOLO('yolov8n.yaml') # 从YAML建立一个新模型 - model = YOLO('yolov8n.pt') # 加载预训练模型(推荐用于训练) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # 从YAML建立并转移权重 - - # 训练模型 - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - - === "CLI" - - ```bash - # 从YAML构建新模型,从头开始训练 - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # 从预训练*.pt模型开始训练 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # 从YAML构建一个新模型,转移预训练权重,然后开始训练 - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### 多GPU训练 - -多GPU训练通过在多个GPU上分布训练负载,实现对可用硬件资源的更有效利用。无论是通过Python API还是命令行界面,都可以使用此功能。 若要启用多GPU训练,请指定您希望使用的GPU设备ID。 - -!!! Example "多GPU训练示例" - - 要使用2个GPU进行训练,请使用CUDA设备0和1,使用以下命令。根据需要扩展到更多GPU。 - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 加载预训练模型(推荐用于训练) - - # 使用2个GPU训练模型 - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) - ``` - - === "CLI" - - ```bash - # 使用GPU 0和1从预训练*.pt模型开始训练 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 - ``` - -### 苹果M1和M2 MPS训练 - -通过Ultralytics YOLO模型集成对Apple M1和M2芯片的支持,现在可以在使用强大的Metal性能着色器(MPS)框架的设备上训练模型。MPS为在Apple的定制硅上执行计算和图像处理任务提供了一种高性能的方法。 - -要在Apple M1和M2芯片上启用训练,您应该在启动训练过程时将设备指定为'mps'。以下是Python和命令行中如何做到这点的示例: - -!!! Example "MPS训练示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 加载预训练模型(推荐用于训练) - - # 使用2个GPU训练模型 - results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') - ``` - - === "CLI" - - ```bash - # 使用GPU 0和1从预训练*.pt模型开始训练 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps - ``` - -利用M1/M2芯片的计算能力,这使得训练任务的处理更加高效。有关更详细的指南和高级配置选项,请参阅[PyTorch MPS文档](https://pytorch.org/docs/stable/notes/mps.html)。 - -### 恢复中断的训练 - -在处理深度学习模型时,从之前保存的状态恢复训练是一个关键特性。在各种情况下,这可能很方便,比如当训练过程意外中断,或者当您希望用新数据或更多时期继续训练模型时。 - -恢复训练时,Ultralytics YOLO将加载最后保存的模型的权重,并恢复优化器状态、学习率调度器和时期编号。这允许您无缝地从离开的地方继续训练过程。 - -在Ultralytics YOLO中,您可以通过在调用`train`方法时将`resume`参数设置为`True`并指定包含部分训练模型权重的`.pt`文件路径来轻松恢复训练。 - -下面是使用Python和命令行恢复中断训练的示例: - -!!! Example "恢复训练示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('path/to/last.pt') # 加载部分训练的模型 - - # 恢复训练 - results = model.train(resume=True) - ``` - - === "CLI" - - ```bash - # 恢复中断的训练 - yolo train resume model=path/to/last.pt - ``` - -通过设置`resume=True`,`train`函数将从'path/to/last.pt'文件中存储的状态继续训练。如果省略`resume`参数或将其设置为`False`,`train`函数将启动新的训练会话。 - -请记住,默认情况下,检查点会在每个时期结束时保存,或者使用`save_period`参数以固定间隔保存,因此您必须至少完成1个时期才能恢复训练运行。 - -## 参数 - -YOLO模型的训练设置是指用于对数据集进行模型训练的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。一些常见的YOLO训练设置包括批大小、学习率、动量和权重衰减。其他可能影响训练过程的因素包括优化器的选择、损失函数的选择以及训练数据集的大小和组成。仔细调整和实验这些设置以实现给定任务的最佳性能是非常重要的。 - -| 键 | 值 | 描述 | -|-------------------|----------|---------------------------------------------------------------------| -| `model` | `None` | 模型文件路径,例如 yolov8n.pt, yolov8n.yaml | -| `data` | `None` | 数据文件路径,例如 coco128.yaml | -| `epochs` | `100` | 训练的轮次数量 | -| `patience` | `50` | 早停训练的等待轮次 | -| `batch` | `16` | 每批图像数量(-1为自动批大小) | -| `imgsz` | `640` | 输入图像的大小,以整数表示 | -| `save` | `True` | 保存训练检查点和预测结果 | -| `save_period` | `-1` | 每x轮次保存检查点(如果<1则禁用) | -| `cache` | `False` | True/ram, disk 或 False。使用缓存加载数据 | -| `device` | `None` | 运行设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpu | -| `workers` | `8` | 数据加载的工作线程数(如果DDP则为每个RANK) | -| `project` | `None` | 项目名称 | -| `name` | `None` | 实验名称 | -| `exist_ok` | `False` | 是否覆盖现有实验 | -| `pretrained` | `True` | (bool 或 str) 是否使用预训练模型(bool)或从中加载权重的模型(str) | -| `optimizer` | `'auto'` | 使用的优化器,选择范围=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto] | -| `verbose` | `False` | 是否打印详细输出 | -| `seed` | `0` | 随机种子,用于可重复性 | -| `deterministic` | `True` | 是否启用确定性模式 | -| `single_cls` | `False` | 将多类数据作为单类训练 | -| `rect` | `False` | 矩形训练,每批为最小填充整合 | -| `cos_lr` | `False` | 使用余弦学习率调度器 | -| `close_mosaic` | `10` | (int) 最后轮次禁用马赛克增强(0为禁用) | -| `resume` | `False` | 从最后检查点恢复训练 | -| `amp` | `True` | 自动混合精度(AMP)训练,选择范围=[True, False] | -| `fraction` | `1.0` | 训练的数据集比例(默认为1.0,即训练集中的所有图像) | -| `profile` | `False` | 在训练期间为记录器分析ONNX和TensorRT速度 | -| `freeze` | `None` | (int 或 list, 可选) 在训练期间冻结前n层,或冻结层索引列表 | -| `lr0` | `0.01` | 初始学习率(例如 SGD=1E-2, Adam=1E-3) | -| `lrf` | `0.01` | 最终学习率 (lr0 * lrf) | -| `momentum` | `0.937` | SGD动量/Adam beta1 | -| `weight_decay` | `0.0005` | 优化器权重衰减5e-4 | -| `warmup_epochs` | `3.0` | 热身轮次(小数ok) | -| `warmup_momentum` | `0.8` | 热身初始动量 | -| `warmup_bias_lr` | `0.1` | 热身初始偏差lr | -| `box` | `7.5` | 框损失增益 | -| `cls` | `0.5` | cls损失增益(根据像素缩放) | -| `dfl` | `1.5` | dfl损失增益 | -| `pose` | `12.0` | 姿态损失增益(仅限姿态) | -| `kobj` | `2.0` | 关键点obj损失增益(仅限姿态) | -| `label_smoothing` | `0.0` | 标签平滑(小数) | -| `nbs` | `64` | 标称批大小 | -| `overlap_mask` | `True` | 训练期间掩码应重叠(仅限分割训练) | -| `mask_ratio` | `4` | 掩码降采样比率(仅限分割训练) | -| `dropout` | `0.0` | 使用dropout正则化(仅限分类训练) | -| `val` | `True` | 训练期间验证/测试 | - -## 记录 - -在训练YOLOv8模型时,跟踪模型随时间的性能变化可能非常有价值。这就是记录发挥作用的地方。Ultralytics的YOLO提供对三种类型记录器的支持 - Comet、ClearML和TensorBoard。 - -要使用记录器,请在上面的代码片段中的下拉菜单中选择它并运行。所选的记录器将被安装和初始化。 - -### Comet - -[Comet](https://www.comet.ml/site/)是一个平台,允许数据科学家和开发人员跟踪、比较、解释和优化实验和模型。它提供了实时指标、代码差异和超参数跟踪等功能。 - -使用Comet: - -!!! Example "示例" - - === "Python" - ```python - # pip install comet_ml - import comet_ml - - comet_ml.init() - ``` - -记得在他们的网站上登录您的Comet账户并获取您的API密钥。您需要将此添加到您的环境变量或脚本中,以记录您的实验。 - -### ClearML - -[ClearML](https://www.clear.ml/) 是一个开源平台,自动跟踪实验并帮助有效共享资源。它旨在帮助团队更有效地管理、执行和复现他们的ML工作。 - -使用ClearML: - -!!! Example "示例" - - === "Python" - ```python - # pip install clearml - import clearml - - clearml.browser_login() - ``` - -运行此脚本后,您需要在浏览器中登录您的ClearML账户并认证您的会话。 - -### TensorBoard - -[TensorBoard](https://www.tensorflow.org/tensorboard) 是TensorFlow的可视化工具包。它允许您可视化TensorFlow图表,绘制有关图表执行的定量指标,并展示通过它的附加数据,如图像。 - -在[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)中使用TensorBoard: - -!!! Example "示例" - - === "CLI" - ```bash - load_ext tensorboard - tensorboard --logdir ultralytics/runs # 替换为'runs'目录 - ``` - -在本地使用TensorBoard,运行下面的命令并在 http://localhost:6006/ 查看结果。 - -!!! Example "示例" - - === "CLI" - ```bash - tensorboard --logdir ultralytics/runs # 替换为'runs'目录 - ``` - -这将加载TensorBoard并将其定向到保存训练日志的目录。 - -在设置好日志记录器后,您可以继续进行模型训练。所有训练指标将自动记录在您选择的平台中,您可以访问这些日志以监控模型随时间的表现,比较不同模型,并识别改进的领域。 diff --git a/docs/zh/modes/val.md b/docs/zh/modes/val.md deleted file mode 100644 index 21129fb10c5..00000000000 --- a/docs/zh/modes/val.md +++ /dev/null @@ -1,86 +0,0 @@ ---- -comments: true -description: 指南 - 验证 YOLOv8 模型。了解如何使用验证设置和指标评估您的 YOLO 模型的性能,包括 Python 和 CLI 示例。 -keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准确率, 指标, Python, CLI ---- - -# 使用 Ultralytics YOLO 进行模型验证 - -Ultralytics YOLO 生态系统和集成 - -## 引言 - -在机器学习流程中,验证是一个关键步骤,让您能够评估训练模型的质量。Ultralytics YOLOv8 的 Val 模式提供了一整套强大的工具和指标,用于评估您的目标检测模型的性能。本指南作为一个完整资源,用于理解如何有效使用 Val 模式来确保您的模型既准确又可靠。 - -## 为什么要使用 Ultralytics YOLO 进行验证? - -以下是使用 YOLOv8 的 Val 模式的好处: - -- **精确性:** 获取准确的指标,如 mAP50、mAP75 和 mAP50-95,全面评估您的模型。 -- **便利性:** 利用内置功能记住训练设置,简化验证过程。 -- **灵活性:** 使用相同或不同的数据集和图像尺寸验证您的模型。 -- **超参数调优:** 使用验证指标来调整您的模型以获得更好的性能。 - -### Val 模式的主要特点 - -以下是 YOLOv8 的 Val 模式提供的显著功能: - -- **自动化设置:** 模型记住其训练配置,以便直接进行验证。 -- **多指标支持:** 根据一系列准确度指标评估您的模型。 -- **CLI 和 Python API:** 根据您的验证偏好选择命令行界面或 Python API。 -- **数据兼容性:** 与训练阶段使用的数据集以及自定义数据集无缝协作。 - -!!! Tip "提示" - - * YOLOv8 模型会自动记住其训练设置,因此您可以很容易地仅使用 `yolo val model=yolov8n.pt` 或 `model('yolov8n.pt').val()` 在原始数据集上并以相同图像大小验证模型。 - -## 使用示例 - -在 COCO128 数据集上验证训练过的 YOLOv8n 模型的准确性。由于 `model` 保留了其训练的 `data` 和参数作为模型属性,因此无需传递任何参数。有关完整的导出参数列表,请参阅下面的参数部分。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义模型 - - # 验证模型 - metrics = model.val() # 无需参数,数据集和设置记忆 - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 包含每个类别的map50-95列表 - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # 验证官方模型 - yolo detect val model=path/to/best.pt # 验证自定义模型 - ``` - -## 参数 - -YOLO 模型的验证设置是指用于评估模型在验证数据集上性能的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。一些常见的 YOLO 验证设置包括批处理大小、在训练期间验证频率以及用于评估模型性能的指标。其他可能影响验证过程的因素包括验证数据集的大小和组成以及模型用于特定任务的特性。仔细调整和实验这些设置很重要,以确保模型在验证数据集上表现良好并且检测和预防过拟合。 - -| 键 | 值 | 描述 | -|---------------|---------|---------------------------------------------| -| `data` | `None` | 数据文件的路径,例如 coco128.yaml | -| `imgsz` | `640` | 输入图像的大小,以整数表示 | -| `batch` | `16` | 每批图像的数量(AutoBatch 为 -1) | -| `save_json` | `False` | 将结果保存至 JSON 文件 | -| `save_hybrid` | `False` | 保存混合版本的标签(标签 + 额外预测) | -| `conf` | `0.001` | 用于检测的对象置信度阈值 | -| `iou` | `0.6` | NMS(非极大抑制)用的交并比(IoU)阈值 | -| `max_det` | `300` | 每张图像的最大检测数量 | -| `half` | `True` | 使用半精度(FP16) | -| `device` | `None` | 运行所用的设备,例如 cuda device=0/1/2/3 或 device=cpu | -| `dnn` | `False` | 使用 OpenCV DNN 进行 ONNX 推理 | -| `plots` | `False` | 在训练期间显示图表 | -| `rect` | `False` | 矩形验证,每批图像为了最小填充整齐排列 | -| `split` | `val` | 用于验证的数据集分割,例如 'val'、'test' 或 'train' | -| diff --git a/docs/zh/quickstart.md b/docs/zh/quickstart.md deleted file mode 100644 index 0a0b773b76a..00000000000 --- a/docs/zh/quickstart.md +++ /dev/null @@ -1,325 +0,0 @@ ---- -comments: true -description: 探索使用pip、conda、git和Docker安装Ultralytics的各种方法。了解如何在命令行界面或Python项目中使用Ultralytics。 -keywords: Ultralytics安装,pip安装Ultralytics,Docker安装Ultralytics,Ultralytics命令行界面,Ultralytics Python接口 ---- - -## 安装Ultralytics - -Ultralytics提供了多种安装方法,包括pip、conda和Docker。通过`ultralytics`pip包安装最新稳定版的YOLOv8,或者克隆[Ultralytics GitHub仓库](https://github.com/ultralytics/ultralytics)以获取最新版本。Docker可用于在隔离容器中执行包,避免本地安装。 - -!!! Example "安装" - - === "Pip安装(推荐)" - 使用pip安装`ultralytics`包,或通过运行`pip install -U ultralytics`更新现有安装。访问Python包索引(PyPI)了解更多关于`ultralytics`包的详细信息:[https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/)。 - - [![PyPI版本](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![下载](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) - - ```bash - # 从PyPI安装ultralytics包 - pip install ultralytics - ``` - - 你也可以直接从GitHub[仓库](https://github.com/ultralytics/ultralytics)安装`ultralytics`包。如果你想要最新的开发版本,这可能会很有用。确保你的系统上安装了Git命令行工具。`@main`指令安装`main`分支,可修改为其他分支,如`@my-branch`,或完全删除,默认为`main`分支。 - - ```bash - # 从GitHub安装ultralytics包 - pip install git+https://github.com/ultralytics/ultralytics.git@main - ``` - - - === "Conda安装" - Conda是pip的一个替代包管理器,也可用于安装。访问Anaconda了解更多详情,网址为[https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics)。用于更新conda包的Ultralytics feedstock仓库位于[https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/)。 - - - [![Conda配方](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda下载](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda版本](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda平台](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) - - ```bash - # 使用conda安装ultralytics包 - conda install -c conda-forge ultralytics - ``` - - !!! 注意 - - 如果你在CUDA环境中安装,最佳实践是同时安装`ultralytics`、`pytorch`和`pytorch-cuda`,以便conda包管理器解决任何冲突,或者最后安装`pytorch-cuda`,让它必要时覆盖特定于CPU的`pytorch`包。 - ```bash - # 使用conda一起安装所有包 - conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics - ``` - - ### Conda Docker映像 - - Ultralytics Conda Docker映像也可从[DockerHub](https://hub.docker.com/r/ultralytics/ultralytics)获得。这些映像基于[Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/),是开始在Conda环境中使用`ultralytics`的简单方式。 - - ```bash - # 将映像名称设置为变量 - t=ultralytics/ultralytics:latest-conda - - # 从Docker Hub拉取最新的ultralytics映像 - sudo docker pull $t - - # 使用GPU支持运行ultralytics映像的容器 - sudo docker run -it --ipc=host --gpus all $t # 所有GPU - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # 指定GPU - ``` - - === "Git克隆" - 如果您对参与开发感兴趣或希望尝试最新源代码,请克隆`ultralytics`仓库。克隆后,导航到目录并使用pip以可编辑模式`-e`安装包。 - ```bash - # 克隆ultralytics仓库 - git clone https://github.com/ultralytics/ultralytics - - # 导航到克隆的目录 - cd ultralytics - - # 为开发安装可编辑模式下的包 - pip install -e . - ``` - - === "Docker" - - 利用Docker轻松地在隔离的容器中执行`ultralytics`包,确保跨不同环境的一致性和流畅性能。通过选择一款官方`ultralytics`映像,从[Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics)中不仅避免了本地安装的复杂性,还获得了对验证工作环境的访问。Ultralytics提供5种主要支持的Docker映像,每一种都为不同的平台和使用案例设计,以提供高兼容性和效率: - - Docker拉取次数 - - - **Dockerfile:** 推荐用于训练的GPU映像。 - - **Dockerfile-arm64:** 为ARM64架构优化,允许在树莓派和其他基于ARM64的平台上部署。 - - **Dockerfile-cpu:** 基于Ubuntu的CPU版,适合无GPU环境下的推理。 - - **Dockerfile-jetson:** 为NVIDIA Jetson设备量身定制,整合了针对这些平台优化的GPU支持。 - - **Dockerfile-python:** 最小化映像,只包含Python及必要依赖,理想于轻量级应用和开发。 - - **Dockerfile-conda:** 基于Miniconda3,包含conda安装的ultralytics包。 - - 以下是获取最新映像并执行它的命令: - - ```bash - # 将映像名称设置为变量 - t=ultralytics/ultralytics:latest - - # 从Docker Hub拉取最新的ultralytics映像 - sudo docker pull $t - - # 使用GPU支持运行ultralytics映像的容器 - sudo docker run -it --ipc=host --gpus all $t # 所有GPU - sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # 指定GPU - ``` - - 上述命令初始化了一个带有最新`ultralytics`映像的Docker容器。`-it`标志分配了一个伪TTY,并保持stdin打开,使您可以与容器交互。`--ipc=host`标志将IPC(进程间通信)命名空间设置为宿主,这对于进程之间的内存共享至关重要。`--gpus all`标志使容器内可以访问所有可用的GPU,这对于需要GPU计算的任务至关重要。 - - 注意:要在容器中使用本地机器上的文件,请使用Docker卷将本地目录挂载到容器中: - - ```bash - # 将本地目录挂载到容器内的目录 - sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t - ``` - - 将`/path/on/host`更改为您本地机器上的目录路径,将`/path/in/container`更改为Docker容器内希望访问的路径。 - - 欲了解进阶Docker使用方法,请探索[Ultralytics Docker指南](https://docs.ultralytics.com/guides/docker-quickstart/)。 - -有关依赖项列表,请参见`ultralytics`的[requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/pyproject.toml)文件。请注意,上述所有示例均安装了所有必需的依赖项。 - -

-
- -
- Watch: Ultralytics YOLO Quick Start Guide -

- -!!! Tip "提示" - - PyTorch的要求因操作系统和CUDA需要而异,因此建议首先根据[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)上的指南安装PyTorch。 - - - PyTorch安装指南 - - -## 通过CLI使用Ultralytics - -Ultralytics命令行界面(CLI)允许您通过简单的单行命令使用,无需Python环境。CLI不需要自定义或Python代码。您可以直接从终端使用`yolo`命令运行所有任务。查看[CLI指南](/../usage/cli.md),了解更多关于从命令行使用YOLOv8的信息。 - -!!! Example "示例" - - === "语法" - - Ultralytics `yolo`命令使用以下语法: - ```bash - yolo 任务 模式 参数 - - 其中 任务(可选)是[detect, segment, classify]中的一个 - 模式(必需)是[train, val, predict, export, track]中的一个 - 参数(可选)是任意数量的自定义“arg=value”对,如“imgsz=320”,可覆盖默认值。 - ``` - 在完整的[配置指南](/../usage/cfg.md)中查看所有参数,或者用`yolo cfg`查看 - - === "训练" - - 用初始学习率0.01训练检测模型10个周期 - ```bash - yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 - ``` - - === "预测" - - 使用预训练的分割模型以320的图像大小预测YouTube视频: - ```bash - yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 - ``` - - === "验证" - - 以批量大小1和640的图像大小验证预训练的检测模型: - ```bash - yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 - ``` - - === "导出" - - 以224x128的图像大小将YOLOv8n分类模型导出到ONNX格式(无需任务) - ```bash - yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 - ``` - - === "特殊" - - 运行特殊命令以查看版本、查看设置、运行检查等: - ```bash - yolo help - yolo checks - yolo version - yolo settings - yolo copy-cfg - yolo cfg - ``` - -!!! Warning "警告" - - 参数必须以`arg=val`对的形式传递,用等号`=`分隔,并用空格` `分隔对。不要使用`--`参数前缀或逗号`,`分隔参数。 - - - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`   ✅ - - `yolo predict model yolov8n.pt imgsz 640 conf 0.25`   ❌ - - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25`   ❌ - -[CLI指南](/../usage/cli.md){ .md-button } - -## 通过Python使用Ultralytics - -YOLOv8的Python接口允许无缝集成进您的Python项目,轻松加载、运行模型及处理输出。Python接口设计简洁易用,使用户能快速实现他们项目中的目标检测、分割和分类功能。这使YOLOv8的Python接口成为任何希望在其Python项目中纳入这些功能的人的宝贵工具。 - -例如,用户可以加载一个模型,训练它,在验证集上评估性能,甚至只需几行代码就可以将其导出到ONNX格式。查看[Python指南](/../usage/python.md),了解更多关于在Python项目中使用YOLOv8的信息。 - -!!! Example "示例" - - ```python - from ultralytics import YOLO - - # 从头开始创建一个新的YOLO模型 - model = YOLO('yolov8n.yaml') - - # 加载预训练的YOLO模型(推荐用于训练) - model = YOLO('yolov8n.pt') - - # 使用“coco128.yaml”数据集训练模型3个周期 - results = model.train(data='coco128.yaml', epochs=3) - - # 评估模型在验证集上的性能 - results = model.val() - - # 使用模型对图片进行目标检测 - results = model('https://ultralytics.com/images/bus.jpg') - - # 将模型导出为ONNX格式 - success = model.export(format='onnx') - ``` - -[Python指南](/../usage/python.md){.md-button .md-button--primary} - -## Ultralytics设置 - -Ultralytics库提供了一个强大的设置管理系统,允许您精细控制实验。通过利用`ultralytics.utils`模块中的`SettingsManager`,用户可以轻松访问和修改设置。这些设置存储在YAML文件中,可以直接在Python环境中查看或修改,或者通过命令行界面(CLI)修改。 - -### 检查设置 - -若要了解当前设置的配置情况,您可以直接查看: - -!!! Example "查看设置" - - === "Python" - 您可以使用Python查看设置。首先从`ultralytics`模块导入`settings`对象。使用以下命令打印和返回设置: - ```python - from ultralytics import settings - - # 查看所有设置 - print(settings) - - # 返回特定设置 - value = settings['runs_dir'] - ``` - - === "CLI" - 或者,命令行界面允许您用一个简单的命令检查您的设置: - ```bash - yolo settings - ``` - -### 修改设置 - -Ultralytics允许用户轻松修改他们的设置。更改可以通过以下方式执行: - -!!! Example "更新设置" - - === "Python" - 在Python环境中,调用`settings`对象上的`update`方法来更改您的设置: - ```python - from ultralytics import settings - - # 更新一个设置 - settings.update({'runs_dir': '/path/to/runs'}) - - # 更新多个设置 - settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False}) - - # 重置设置为默认值 - settings.reset() - ``` - - === "CLI" - 如果您更喜欢使用命令行界面,以下命令将允许您修改设置: - ```bash - # 更新一个设置 - yolo settings runs_dir='/path/to/runs' - - # 更新多个设置 - yolo settings runs_dir='/path/to/runs' tensorboard=False - - # 重置设置为默认值 - yolo settings reset - ``` - -### 理解设置 - -下表提供了Ultralytics中可调整设置的概览。每个设置都概述了一个示例值、数据类型和简短描述。 - -| 名称 | 示例值 | 数据类型 | 描述 | -|--------------------|-----------------------|--------|------------------------------------------------------------------------------------------| -| `settings_version` | `'0.0.4'` | `str` | Ultralytics _settings_ 版本(不同于Ultralytics [pip](https://pypi.org/project/ultralytics/)版本) | -| `datasets_dir` | `'/path/to/datasets'` | `str` | 存储数据集的目录 | -| `weights_dir` | `'/path/to/weights'` | `str` | 存储模型权重的目录 | -| `runs_dir` | `'/path/to/runs'` | `str` | 存储实验运行的目录 | -| `uuid` | `'a1b2c3d4'` | `str` | 当前设置的唯一标识符 | -| `sync` | `True` | `bool` | 是否将分析和崩溃同步到HUB | -| `api_key` | `''` | `str` | Ultralytics HUB [API Key](https://hub.ultralytics.com/settings?tab=api+keys) | -| `clearml` | `True` | `bool` | 是否使用ClearML记录 | -| `comet` | `True` | `bool` | 是否使用[Comet ML](https://bit.ly/yolov8-readme-comet)进行实验跟踪和可视化 | -| `dvc` | `True` | `bool` | 是否使用[DVC进行实验跟踪](https://dvc.org/doc/dvclive/ml-frameworks/yolo)和版本控制 | -| `hub` | `True` | `bool` | 是否使用[Ultralytics HUB](https://hub.ultralytics.com)集成 | -| `mlflow` | `True` | `bool` | 是否使用MLFlow进行实验跟踪 | -| `neptune` | `True` | `bool` | 是否使用Neptune进行实验跟踪 | -| `raytune` | `True` | `bool` | 是否使用Ray Tune进行超参数调整 | -| `tensorboard` | `True` | `bool` | 是否使用TensorBoard进行可视化 | -| `wandb` | `True` | `bool` | 是否使用Weights & Biases记录 | - -在您浏览项目或实验时,请务必重新访问这些设置,以确保它们为您的需求提供最佳配置。 diff --git a/docs/zh/tasks/classify.md b/docs/zh/tasks/classify.md deleted file mode 100644 index f17d979ba03..00000000000 --- a/docs/zh/tasks/classify.md +++ /dev/null @@ -1,172 +0,0 @@ ---- -comments: true -description: 学习YOLOv8分类模型进行图像分类。获取关于预训练模型列表及如何训练、验证、预测、导出模型的详细信息。 -keywords: Ultralytics, YOLOv8, 图像分类, 预训练模型, YOLOv8n-cls, 训练, 验证, 预测, 模型导出 ---- - -# 图像分类 - -图像分类示例 - -图像分类是三项任务中最简单的,它涉及将整个图像分类为一组预定义类别中的一个。 - -图像分类器的输出是单个类别标签和一个置信度分数。当您只需要知道一幅图像属于哪个类别、而不需要知道该类别对象的位置或它们的确切形状时,图像分类非常有用。 - -!!! Tip "提示" - - YOLOv8分类模型使用`-cls`后缀,即`yolov8n-cls.pt`,并预先训练在[ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)上。 - -## [模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -这里展示了预训练的YOLOv8分类模型。Detect、Segment和Pose模型是在[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)数据集上预训练的,而分类模型则是在[ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)数据集上预训练的。 - -[模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)会在首次使用时自动从Ultralytics的最新[发布版本](https://github.com/ultralytics/assets/releases)中下载。 - -| 模型 | 尺寸
(像素) | 准确率
top1 | 准确率
top5 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | 参数
(M) | FLOPs
(B) at 640 | -|----------------------------------------------------------------------------------------------|-----------------|------------------|------------------|-----------------------------|----------------------------------|----------------|--------------------------| -| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | -| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | -| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | -| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | -| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | - -- **准确率** 是模型在[ImageNet](https://www.image-net.org/)数据集验证集上的准确度。 -
通过`yolo val classify data=path/to/ImageNet device=0`复现结果。 -- **速度** 是在使用[Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)实例时,ImageNet验证图像的平均处理速度。 -
通过`yolo val classify data=path/to/ImageNet batch=1 device=0|cpu`复现结果。 - -## 训练 - -在MNIST160数据集上训练YOLOv8n-cls模型100个时期,图像尺寸为64。有关可用参数的完整列表,请参见[配置](/../usage/cfg.md)页面。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n-cls.yaml') # 从YAML构建新模型 - model = YOLO('yolov8n-cls.pt') # 加载预训练模型(推荐用于训练) - model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # 从YAML构建并转移权重 - - # 训练模型 - results = model.train(data='mnist160', epochs=100, imgsz=64) - ``` - - === "CLI" - - ```bash - # 从YAML构建新模型并从头开始训练 - yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 - - # 从预训练的*.pt模型开始训练 - yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 - - # 从YAML构建新模型,转移预训练权重并开始训练 - yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 - ``` - -### 数据集格式 - -YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classify/index.md)。 - -## 验证 - -在MNIST160数据集上验证训练好的YOLOv8n-cls模型准确性。不需要传递任何参数,因为`model`保留了它的训练`data`和参数作为模型属性。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n-cls.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义模型 - - # 验证模型 - metrics = model.val() # 无需参数,数据集和设置已记忆 - metrics.top1 # top1准确率 - metrics.top5 # top5准确率 - ``` - === "CLI" - - ```bash - yolo classify val model=yolov8n-cls.pt # 验证官方模型 - yolo classify val model=path/to/best.pt # 验证自定义模型 - ``` - -## 预测 - -使用训练过的YOLOv8n-cls模型对图像进行预测。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n-cls.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义模型 - - # 使用模型进行预测 - results = model('https://ultralytics.com/images/bus.jpg') # 对图像进行预测 - ``` - === "CLI" - - ```bash - yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # 使用官方模型进行预测 - yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # 使用自定义模型进行预测 - ``` - -有关`predict`模式的完整详细信息,请参见[预测](https://docs.ultralytics.com/modes/predict/)页面。 - -## 导出 - -将YOLOv8n-cls模型导出为其他格式,如ONNX、CoreML等。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n-cls.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义训练模型 - - # 导出模型 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-cls.pt format=onnx # 导出官方模型 - yolo export model=path/to/best.pt format=onnx # 导出自定义训练模型 - ``` - -下表中提供了YOLOv8-cls模型可导出的格式。您可以直接在导出的模型上进行预测或验证,即`yolo predict model=yolov8n-cls.onnx`。导出完成后,示例用法会显示您的模型。 - -| 格式 | `format` 参数 | 模型 | 元数据 | 参数 | -|--------------------------------------------------------------------|---------------|-------------------------------|-----|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | - -有关`export`的完整详细信息,请参见[导出](https://docs.ultralytics.com/modes/export/)页面。 diff --git a/docs/zh/tasks/detect.md b/docs/zh/tasks/detect.md deleted file mode 100644 index deb4564b40e..00000000000 --- a/docs/zh/tasks/detect.md +++ /dev/null @@ -1,184 +0,0 @@ ---- -comments: true -description: Ultralytics 官方YOLOv8文档。学习如何训练、验证、预测并以各种格式导出模型。包括详尽的性能统计。 -keywords: YOLOv8, Ultralytics, 目标检测, 预训练模型, 训练, 验证, 预测, 导出模型, COCO, ImageNet, PyTorch, ONNX, CoreML ---- - -# 目标检测 - -目标检测示例 - -目标检测是一项任务,涉及辨识图像或视频流中物体的位置和类别。 - -目标检测器的输出是一组围绕图像中物体的边界框,以及每个框的类别标签和置信度得分。当您需要识别场景中的感兴趣对象,但不需要准确了解物体的位置或其确切形状时,目标检测是一个很好的选择。 - -

-
- -
- 观看:使用预训练的Ultralytics YOLOv8模型进行目标检测。 -

- -!!! Tip "提示" - - YOLOv8 Detect 模型是默认的 YOLOv8 模型,即 `yolov8n.pt` ,并在 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 数据集上进行了预训练。 - -## [模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -此处展示了预训练的YOLOv8 Detect模型。Detect、Segment和Pose模型在 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 数据集上预训练,而Classify模型在 [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) 数据集上预训练。 - -[模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) 会在首次使用时自动从Ultralytics的最新 [发布](https://github.com/ultralytics/assets/releases) 中下载。 - -| 模型 | 尺寸
(像素) | mAPval
50-95 | 速度
CPU ONNX
(毫秒) | 速度
A100 TensorRT
(毫秒) | 参数
(M) | FLOPs
(B) | -|--------------------------------------------------------------------------------------|-----------------|----------------------|-----------------------------|----------------------------------|----------------|-------------------| -| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | -| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | -| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | -| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | -| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | - -- **mAPval** 值适用于 [COCO val2017](https://cocodataset.org) 数据集上的单模型单尺度。 -
通过 `yolo val detect data=coco.yaml device=0` 复现。 -- **速度** 是在使用 [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) 云实例对COCO val图像的平均值。 -
通过 `yolo val detect data=coco128.yaml batch=1 device=0|cpu` 复现。 - -## 训练 - -在COCO128数据集上使用图像尺寸640将YOLOv8n训练100个epochs。要查看可用参数的完整列表,请参阅 [配置](/../usage/cfg.md) 页面。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.yaml') # 从YAML构建新模型 - model = YOLO('yolov8n.pt') # 加载预训练模型(推荐用于训练) - model = YOLO('yolov8n.yaml').load('yolov8n.pt') # 从YAML构建并转移权重 - - # 训练模型 - results = model.train(data='coco128.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # 从YAML构建新模型并从头开始训练 - yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 - - # 从预训练的*.pt模型开始训练 - yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 - - # 从YAML构建新模型,传递预训练权重并开始训练 - yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 - ``` - -### 数据集格式 - -YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.md) 中详细找到。要将您现有的数据集从其他格式(如COCO等)转换为YOLO格式,请使用Ultralytics的 [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) 工具。 - -## 验证 - -在COCO128数据集上验证训练好的YOLOv8n模型准确性。无需传递参数,`model` 作为模型属性保留其训练的 `data` 和参数。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义模型 - - # 验证模型 - metrics = model.val() # 无需参数,数据集和设置通过模型属性记住 - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 包含每个类别map50-95的列表 - ``` - === "CLI" - - ```bash - yolo detect val model=yolov8n.pt # 验证官方模型 - yolo detect val model=path/to/best.pt # 验证自定义模型 - ``` - -## 预测 - -使用训练好的YOLOv8n模型在图像上进行预测。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义模型 - - # 使用模型进行预测 - results = model('https://ultralytics.com/images/bus.jpg') # 对图像进行预测 - ``` - === "CLI" - - ```bash - yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # 使用官方模型进行预测 - yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # 使用自定义模型进行预测 - ``` - -完整的 `predict` 模式细节请见 [预测](https://docs.ultralytics.com/modes/predict/) 页面。 - -## 导出 - -将YOLOv8n模型导出为ONNX、CoreML等不同格式。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义训练模型 - - # 导出模型 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n.pt format=onnx # 导出官方模型 - yolo export model=path/to/best.pt format=onnx # 导出自定义训练模型 - ``` - -下表中提供了可用的YOLOv8导出格式。您可以直接在导出的模型上进行预测或验证,即 `yolo predict model=yolov8n.onnx`。导出完成后,会为您的模型显示使用示例。 - -| 格式 | `format` 参数 | 模型 | 元数据 | 参数 | -|--------------------------------------------------------------------|---------------|---------------------------|-----|-------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`,`optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`,`half`,`dynamic`,`simplify`,`opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`,`half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`,`half`,`dynamic`,`simplify`,`workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`,`half`,`int8`,`nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`,`keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`,`half`,`int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`,`half` | - -完整的 `export` 详情请见 [导出](https://docs.ultralytics.com/modes/export/) 页面。 diff --git a/docs/zh/tasks/index.md b/docs/zh/tasks/index.md deleted file mode 100644 index 4a48c732967..00000000000 --- a/docs/zh/tasks/index.md +++ /dev/null @@ -1,51 +0,0 @@ ---- -comments: true -description: 了解 YOLOv8 能够执行的基础计算机视觉任务,包括检测、分割、分类和姿态估计。理解它们在你的 AI 项目中的应用。 -keywords: Ultralytics, YOLOv8, 检测, 分割, 分类, 姿态估计, AI 框架, 计算机视觉任务 ---- - -# Ultralytics YOLOv8 任务 - -
-Ultralytics YOLO 支持的任务 - -YOLOv8 是一个支持多种计算机视觉**任务**的 AI 框架。该框架可用于执行[检测](detect.md)、[分割](segment.md)、[分类](classify.md)和[姿态](pose.md)估计。每项任务都有不同的目标和用例。 - -

-
- -
- 观看:探索 Ultralytics YOLO 任务:对象检测、分割、追踪和姿态估计。 -

- -## [检测](detect.md) - -检测是 YOLOv8 支持的主要任务。它涉及在图像或视频帧中检测对象并围绕它们绘制边界框。侦测到的对象根据其特征被归类到不同的类别。YOLOv8 能够在单个图像或视频帧中检测多个对象,具有高准确性和速度。 - -[检测示例](detect.md){ .md-button } - -## [分割](segment.md) - -分割是一项涉及将图像分割成基于图像内容的不同区域的任务。每个区域根据其内容被分配一个标签。该任务在应用程序中非常有用,如图像分割和医学成像。YOLOv8 使用 U-Net 架构的变体来执行分割。 - -[分割示例](segment.md){ .md-button } - -## [分类](classify.md) - -分类是一项涉及将图像归类为不同类别的任务。YOLOv8 可用于根据图像内容对图像进行分类。它使用 EfficientNet 架构的变体来执行分类。 - -[分类示例](classify.md){ .md-button } - -## [姿态](pose.md) - -姿态/关键点检测是一项涉及在图像或视频帧中检测特定点的任务。这些点被称为关键点,用于跟踪移动或姿态估计。YOLOv8 能够在图像或视频帧中准确迅速地检测关键点。 - -[姿态示例](pose.md){ .md-button } - -## 结论 - -YOLOv8 支持多个任务,包括检测、分割、分类和关键点检测。这些任务都具有不同的目标和用例。通过理解这些任务之间的差异,您可以为您的计算机视觉应用选择合适的任务。 diff --git a/docs/zh/tasks/pose.md b/docs/zh/tasks/pose.md deleted file mode 100644 index 44c92b1ca30..00000000000 --- a/docs/zh/tasks/pose.md +++ /dev/null @@ -1,185 +0,0 @@ ---- -comments: true -description: 学习如何使用Ultralytics YOLOv8进行姿态估计任务。找到预训练模型,学习如何训练、验证、预测以及导出你自己的模型。 -keywords: Ultralytics, YOLO, YOLOv8, 姿态估计, 关键点检测, 物体检测, 预训练模型, 机器学习, 人工智能 ---- - -# 姿态估计 - -姿态估计示例 - -姿态估计是一项任务,其涉及识别图像中特定点的位置,通常被称为关键点。这些关键点可以代表物体的各种部位,如关节、地标或其他显著特征。关键点的位置通常表示为一组2D `[x, y]` 或3D `[x, y, visible]` 坐标。 - -姿态估计模型的输出是一组点集,这些点代表图像中物体上的关键点,通常还包括每个点的置信度得分。当你需要在场景中识别物体的特定部位及其相互之间的位置时,姿态估计是一个不错的选择。 - -

-
- -
- 观看:使用Ultralytics YOLOv8进行姿态估计。 -

- -!!! Tip "提示" - - YOLOv8 _姿态_ 模型使用 `-pose` 后缀,例如 `yolov8n-pose.pt`。这些模型在 [COCO关键点](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 数据集上进行了训练,并且适用于各种姿态估计任务。 - -## [模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -这里展示了YOLOv8预训练的姿态模型。检测、分割和姿态模型在 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 数据集上进行预训练,而分类模型则在 [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) 数据集上进行预训练。 - -[模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) 在首次使用时将自动从最新的Ultralytics [发布版本](https://github.com/ultralytics/assets/releases)中下载。 - -| 模型 | 尺寸
(像素) | mAP姿态
50-95 | mAP姿态
50 | 速度
CPU ONNX
(毫秒) | 速度
A100 TensorRT
(毫秒) | 参数
(M) | 浮点数运算
(B) | -|----------------------------------------------------------------------------------------------------|-----------------|---------------------|------------------|-----------------------------|----------------------------------|----------------|-------------------| -| [YOLOv8n-姿态](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | -| [YOLOv8s-姿态](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | -| [YOLOv8m-姿态](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | -| [YOLOv8l-姿态](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | -| [YOLOv8x-姿态](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | -| [YOLOv8x-姿态-p6](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | - -- **mAPval** 值适用于[COCO 关键点 val2017](https://cocodataset.org)数据集上的单模型单尺度。 -
通过执行 `yolo val pose data=coco-pose.yaml device=0` 来复现。 -- **速度** 是在 [亚马逊EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)实例上使用COCO val图像的平均值。 -
通过执行 `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` 来复现。 - -## 训练 - -在COCO128姿态数据集上训练一个YOLOv8姿态模型。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n-pose.yaml') # 从YAML构建一个新模型 - model = YOLO('yolov8n-pose.pt') # 加载一个预训练模型(推荐用于训练) - model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # 从YAML构建并传输权重 - - # 训练模型 - results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # 从YAML构建一个新模型并从头开始训练 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 - - # 从一个预训练的*.pt模型开始训练 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 - - # 从YAML构建一个新模型,传输预训练权重并开始训练 - yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 - ``` - -### 数据集格式 - -YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/index.md)中。若要将您现有的数据集从其他格式(如COCO等)转换为YOLO格式,请使用Ultralytics的 [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) 工具。 - -## 验证 - -在COCO128姿态数据集上验证训练好的YOLOv8n姿态模型的准确性。没有参数需要传递,因为`模型`保存了其训练`数据`和参数作为模型属性。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n-pose.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义模型 - - # 验证模型 - metrics = model.val() # 无需参数,数据集和设置都记住了 - metrics.box.map # map50-95 - metrics.box.map50 # map50 - metrics.box.map75 # map75 - metrics.box.maps # 包含每个类别map50-95的列表 - ``` - === "CLI" - - ```bash - yolo pose val model=yolov8n-pose.pt # 验证官方模型 - yolo pose val model=path/to/best.pt # 验证自定义模型 - ``` - -## 预测 - -使用训练好的YOLOv8n姿态模型在图片上运行预测。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n-pose.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义模型 - - # 用模型进行预测 - results = model('https://ultralytics.com/images/bus.jpg') # 在一张图片上预测 - ``` - === "CLI" - - ```bash - yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # 用官方模型预测 - yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # 用自定义模型预测 - ``` - -在[预测](https://docs.ultralytics.com/modes/predict/)页面中查看完整的`预测`模式细节。 - -## 导出 - -将YOLOv8n姿态模型导出为ONNX、CoreML等不同格式。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 加载模型 - model = YOLO('yolov8n-pose.pt') # 加载官方模型 - model = YOLO('path/to/best.pt') # 加载自定义训练好的模型 - - # 导出模型 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-pose.pt format=onnx # 导出官方模型 - yolo export model=path/to/best.pt format=onnx # 导出自定义训练好的模型 - ``` - -以下表格中有可用的YOLOv8姿态导出格式。您可以直接在导出的模型上进行预测或验证,例如 `yolo predict model=yolov8n-pose.onnx`。导出完成后,为您的模型显示用法示例。 - -| 格式 | `format` 参数 | 模型 | 元数据 | 参数 | -|--------------------------------------------------------------------|---------------|--------------------------------|-----|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | - -在[导出](https://docs.ultralytics.com/modes/export/) 页面中查看完整的`导出`细节。 diff --git a/docs/zh/tasks/segment.md b/docs/zh/tasks/segment.md deleted file mode 100644 index 9d9404db968..00000000000 --- a/docs/zh/tasks/segment.md +++ /dev/null @@ -1,188 +0,0 @@ ---- -comments: true -description: 学习如何使用Ultralytics YOLO进行实例分割模型。包括训练、验证、图像预测和模型导出的说明。 -keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体检测, 模型训练, 模型验证, 图像预测, 模型导出 ---- - -# 实例分割 - -实例分割示例 - -实例分割比物体检测有所深入,它涉及到识别图像中的个别物体并将它们从图像的其余部分中分割出来。 - -实例分割模型的输出是一组蒙版或轮廓,用于勾画图像中每个物体,以及每个物体的类别标签和置信度分数。实例分割在您需要不仅知道图像中的物体位置,还需要知道它们确切形状时非常有用。 - -

-
- -
- 观看: 在Python中使用预训练的Ultralytics YOLOv8模型运行分割。 -

- -!!! Tip "提示" - - YOLOv8分割模型使用`-seg`后缀,即`yolov8n-seg.pt`,并在[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)上进行预训练。 - -## [模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) - -这里展示了预训练的YOLOv8分割模型。Detect、Segment和Pose模型都是在[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)数据集上进行预训练的,而Classify模型则是在[ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)数据集上进行预训练的。 - -[模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models)会在首次使用时自动从Ultralytics的最新[版本](https://github.com/ultralytics/assets/releases)下载。 - -| 模型 | 尺寸
(像素) | mAPbox
50-95 | mAPmask
50-95 | 速度
CPU ONNX
(ms) | 速度
A100 TensorRT
(ms) | 参数
(M) | FLOPs
(B) | -|----------------------------------------------------------------------------------------------|-----------------|----------------------|-----------------------|-----------------------------|----------------------------------|----------------|-------------------| -| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | -| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | -| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | -| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | -| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | - -- **mAPval** 值针对[COCO val2017](https://cocodataset.org)数据集的单模型单尺度。 -
通过`yolo val segment data=coco.yaml device=0`复现。 -- **速度** 基于在[Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)实例上运行的COCO val图像的平均值。 -
通过`yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu`复现。 - -## 训练 - -在COCO128-seg数据集上以640的图像尺寸训练YOLOv8n-seg模型共100个周期。想了解更多可用的参数,请查阅[配置](/../usage/cfg.md)页面。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 载入一个模型 - model = YOLO('yolov8n-seg.yaml') # 从YAML构建一个新模型 - model = YOLO('yolov8n-seg.pt') # 载入预训练模型(推荐用于训练) - model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # 从YAML构建并传递权重 - - # 训练模型 - results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) - ``` - === "CLI" - - ```bash - # 从YAML构建新模型并从头开始训练 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 - - # 从预训练*.pt模型开始训练 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 - - # 从YAML构建新模型,传递预训练权重,开始训练 - yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 - ``` - -### 数据集格式 - -可以在[数据集指南](/../datasets/segment/index.md)中详细了解YOLO分割数据集格式。要将现有数据集从其他格式(如COCO等)转换为YOLO格式,请使用Ultralytics的[JSON2YOLO](https://github.com/ultralytics/JSON2YOLO)工具。 - -## 验证 - -在COCO128-seg数据集上验证已训练的YOLOv8n-seg模型的准确性。不需要传递任何参数,因为`model`保留了其训练的`data`和作为模型属性的设置。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 载入一个模型 - model = YOLO('yolov8n-seg.pt') # 载入官方模型 - model = YOLO('path/to/best.pt') # 载入自定义模型 - - # 验证模型 - metrics = model.val() # 不需要参数,数据集和设置被记住了 - metrics.box.map # map50-95(B) - metrics.box.map50 # map50(B) - metrics.box.map75 # map75(B) - metrics.box.maps # 各类别map50-95(B)列表 - metrics.seg.map # map50-95(M) - metrics.seg.map50 # map50(M) - metrics.seg.map75 # map75(M) - metrics.seg.maps # 各类别map50-95(M)列表 - ``` - === "CLI" - - ```bash - yolo segment val model=yolov8n-seg.pt # 验证官方模型 - yolo segment val model=path/to/best.pt # 验证自定义模型 - ``` - -## 预测 - -使用已训练的YOLOv8n-seg模型在图像上进行预测。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 载入一个模型 - model = YOLO('yolov8n-seg.pt') # 载入官方模型 - model = YOLO('path/to/best.pt') # 载入自定义模型 - - # 使用模型进行预测 - results = model('https://ultralytics.com/images/bus.jpg') # 对一张图像进行预测 - ``` - === "CLI" - - ```bash - yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # 使用官方模型进行预测 - yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # 使用自定义模型进行预测 - ``` - -预测模式的完整详情请参见[Predict](https://docs.ultralytics.com/modes/predict/)页面。 - -## 导出 - -将YOLOv8n-seg模型导出为ONNX、CoreML等不同格式。 - -!!! Example "示例" - - === "Python" - - ```python - from ultralytics import YOLO - - # 载入一个模型 - model = YOLO('yolov8n-seg.pt') # 载入官方模型 - model = YOLO('path/to/best.pt') # 载入自定义训练模型 - - # 导出模型 - model.export(format='onnx') - ``` - === "CLI" - - ```bash - yolo export model=yolov8n-seg.pt format=onnx # 导出官方模型 - yolo export model=path/to/best.pt format=onnx # 导出自定义训练模型 - ``` - -YOLOv8-seg导出格式的可用表格如下所示。您可以直接在导出的模型上进行预测或验证,例如`yolo predict model=yolov8n-seg.onnx`。导出完成后,示例用法将显示您的模型。 - -| 格式 | `format` 参数 | 模型 | 元数据 | 参数 | -|--------------------------------------------------------------------|---------------|-------------------------------|-----|-----------------------------------------------------| -| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | -| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | -| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | -| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | -| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | -| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | -| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | -| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | -| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | -| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | -| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | -| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | -| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | - -导出模式的完整详情请参见[Export](https://docs.ultralytics.com/modes/export/)页面。 diff --git a/examples/YOLOv8-LibTorch-CPP-Inference/main.cc b/examples/YOLOv8-LibTorch-CPP-Inference/main.cc index ebb1a7589c9..b68b7f7e4bf 100644 --- a/examples/YOLOv8-LibTorch-CPP-Inference/main.cc +++ b/examples/YOLOv8-LibTorch-CPP-Inference/main.cc @@ -139,7 +139,7 @@ torch::Tensor nms(const torch::Tensor& bboxes, const torch::Tensor& scores, floa } -torch::Tensor non_max_supperession(torch::Tensor& prediction, float conf_thres = 0.25, float iou_thres = 0.45, int max_det = 300) { +torch::Tensor non_max_suppression(torch::Tensor& prediction, float conf_thres = 0.25, float iou_thres = 0.45, int max_det = 300) { auto bs = prediction.size(0); auto nc = prediction.size(1) - 4; auto nm = prediction.size(1) - nc - 4; @@ -237,7 +237,7 @@ int main() { torch::Tensor output = yolo_model.forward(inputs).toTensor().cpu(); // NMS - auto keep = non_max_supperession(output)[0]; + auto keep = non_max_suppression(output)[0]; auto boxes = keep.index({Slice(), Slice(None, 4)}); keep.index_put_({Slice(), Slice(None, 4)}, scale_boxes({input_image.rows, input_image.cols}, boxes, {image.rows, image.cols})); diff --git a/examples/YOLOv8-Segmentation-ONNXRuntime-Python/README.md b/examples/YOLOv8-Segmentation-ONNXRuntime-Python/README.md index 9327f1fa837..b647700c019 100644 --- a/examples/YOLOv8-Segmentation-ONNXRuntime-Python/README.md +++ b/examples/YOLOv8-Segmentation-ONNXRuntime-Python/README.md @@ -36,7 +36,7 @@ yolo export model=yolov8s-seg.pt imgsz=640 format=onnx opset=12 simplify Perform inference with the exported ONNX model on your images. ```bash -python main.py --model-path --source +python main.py --model --source ``` ### Example Output diff --git a/examples/heatmaps.ipynb b/examples/heatmaps.ipynb index 0cc520c5e3c..b49e69bc8a3 100644 --- a/examples/heatmaps.ipynb +++ b/examples/heatmaps.ipynb @@ -130,7 +130,7 @@ "- About Us – https://ultralytics.com/about\n", "- Join Our Team – https://ultralytics.com/work\n", "- Contact Us – https://ultralytics.com/contact\n", - "- Discord – https://discord.gg/2wNGbc6g9X\n", + "- Discord – https://ultralytics.com/discord\n", "- Ultralytics License – https://ultralytics.com/license\n", "\n", "YOLOv8 🚀 resources\n", diff --git a/examples/object_counting.ipynb b/examples/object_counting.ipynb index ce11044d6f9..83ad8736ac2 100644 --- a/examples/object_counting.ipynb +++ b/examples/object_counting.ipynb @@ -132,7 +132,7 @@ "- About Us – https://ultralytics.com/about\n", "- Join Our Team – https://ultralytics.com/work\n", "- Contact Us – https://ultralytics.com/contact\n", - "- Discord – https://discord.gg/2wNGbc6g9X\n", + "- Discord – https://ultralytics.com/discord\n", "- Ultralytics License – https://ultralytics.com/license\n", "\n", "YOLOv8 🚀 resources\n", diff --git a/examples/object_tracking.ipynb b/examples/object_tracking.ipynb index e1a0d4e0591..1825f693b20 100644 --- a/examples/object_tracking.ipynb +++ b/examples/object_tracking.ipynb @@ -188,7 +188,7 @@ "- About Us – https://ultralytics.com/about\n", "- Join Our Team – https://ultralytics.com/work\n", "- Contact Us – https://ultralytics.com/contact\n", - "- Discord – https://discord.gg/2wNGbc6g9X\n", + "- Discord – https://ultralytics.com/discord\n", "- Ultralytics License – https://ultralytics.com/license\n", "\n", "YOLOv8 🚀 resources\n", diff --git a/examples/tutorial.ipynb b/examples/tutorial.ipynb index 62b05a6f705..51e5c8f201d 100644 --- a/examples/tutorial.ipynb +++ b/examples/tutorial.ipynb @@ -58,21 +58,21 @@ "colab": { "base_uri": "https://localhost:8080/" }, - "outputId": "27ca383c-0a97-4679-f1c5-ba843f033de7" + "outputId": "51d15672-e688-4fb8-d9d0-00d1916d3532" }, "source": [ "%pip install ultralytics\n", "import ultralytics\n", "ultralytics.checks()" ], - "execution_count": null, + "execution_count": 1, "outputs": [ { "output_type": "stream", - "name": "stderr", + "name": "stdout", "text": [ - "Ultralytics YOLOv8.0.145 🚀 Python-3.10.6 torch-2.0.1+cu118 CUDA:0 (Tesla T4, 15102MiB)\n", - "Setup complete ✅ (2 CPUs, 12.7 GB RAM, 24.2/78.2 GB disk)\n" + "Ultralytics YOLOv8.1.23 🚀 Python-3.10.12 torch-2.1.0+cu121 CUDA:0 (Tesla T4, 15102MiB)\n", + "Setup complete ✅ (2 CPUs, 12.7 GB RAM, 26.3/78.2 GB disk)\n" ] } ] @@ -95,28 +95,29 @@ "colab": { "base_uri": "https://localhost:8080/" }, - "outputId": "64489d1f-e71a-44b5-92f6-2088781ca096" + "outputId": "37738db7-4284-47de-b3ed-b82f2431ed23" }, "source": [ "# Run inference on an image with YOLOv8n\n", "!yolo predict model=yolov8n.pt source='https://ultralytics.com/images/zidane.jpg'" ], - "execution_count": null, + "execution_count": 2, "outputs": [ { "output_type": "stream", "name": "stdout", "text": [ "Downloading https://github.com/ultralytics/assets/releases/download/v8.1.0/yolov8n.pt to 'yolov8n.pt'...\n", - "100% 6.23M/6.23M [00:00<00:00, 77.2MB/s]\n", - "Ultralytics YOLOv8.0.145 🚀 Python-3.10.6 torch-2.0.1+cu118 CUDA:0 (Tesla T4, 15102MiB)\n", - "YOLOv8n summary (fused): 168 layers, 3151904 parameters, 0 gradients\n", + "100% 6.23M/6.23M [00:00<00:00, 72.6MB/s]\n", + "Ultralytics YOLOv8.1.23 🚀 Python-3.10.12 torch-2.1.0+cu121 CUDA:0 (Tesla T4, 15102MiB)\n", + "YOLOv8n summary (fused): 168 layers, 3151904 parameters, 0 gradients, 8.7 GFLOPs\n", "\n", "Downloading https://ultralytics.com/images/zidane.jpg to 'zidane.jpg'...\n", - "100% 165k/165k [00:00<00:00, 7.46MB/s]\n", - "image 1/1 /content/zidane.jpg: 384x640 2 persons, 1 tie, 365.8ms\n", - "Speed: 13.7ms preprocess, 365.8ms inference, 431.7ms postprocess per image at shape (1, 3, 384, 640)\n", - "Results saved to \u001b[1mruns/detect/predict\u001b[0m\n" + "100% 165k/165k [00:00<00:00, 7.05MB/s]\n", + "image 1/1 /content/zidane.jpg: 384x640 2 persons, 1 tie, 162.0ms\n", + "Speed: 13.9ms preprocess, 162.0ms inference, 1259.5ms postprocess per image at shape (1, 3, 384, 640)\n", + "Results saved to \u001b[1mruns/detect/predict\u001b[0m\n", + "💡 Learn more at https://docs.ultralytics.com/modes/predict\n" ] } ] @@ -159,7 +160,7 @@ "cell_type": "code", "metadata": { "id": "X58w8JLpMnjH", - "outputId": "e3aacd98-ceca-49b7-e112-a0c25979ad6c", + "outputId": "61001937-ccd2-4157-a373-156a57495231", "colab": { "base_uri": "https://localhost:8080/" } @@ -168,26 +169,26 @@ "# Validate YOLOv8n on COCO8 val\n", "!yolo val model=yolov8n.pt data=coco8.yaml" ], - "execution_count": null, + "execution_count": 3, "outputs": [ { "output_type": "stream", "name": "stdout", "text": [ - "Ultralytics YOLOv8.0.145 🚀 Python-3.10.6 torch-2.0.1+cu118 CUDA:0 (Tesla T4, 15102MiB)\n", - "YOLOv8n summary (fused): 168 layers, 3151904 parameters, 0 gradients\n", + "Ultralytics YOLOv8.1.23 🚀 Python-3.10.12 torch-2.1.0+cu121 CUDA:0 (Tesla T4, 15102MiB)\n", + "YOLOv8n summary (fused): 168 layers, 3151904 parameters, 0 gradients, 8.7 GFLOPs\n", "\n", "Dataset 'coco8.yaml' images not found ⚠️, missing path '/content/datasets/coco8/images/val'\n", "Downloading https://ultralytics.com/assets/coco8.zip to '/content/datasets/coco8.zip'...\n", - "100% 433k/433k [00:00<00:00, 12.4MB/s]\n", - "Unzipping /content/datasets/coco8.zip to /content/datasets...\n", - "Dataset download success ✅ (0.7s), saved to \u001b[1m/content/datasets\u001b[0m\n", + "100% 433k/433k [00:00<00:00, 12.5MB/s]\n", + "Unzipping /content/datasets/coco8.zip to /content/datasets/coco8...: 100% 25/25 [00:00<00:00, 4546.38file/s]\n", + "Dataset download success ✅ (0.9s), saved to \u001b[1m/content/datasets\u001b[0m\n", "\n", "Downloading https://ultralytics.com/assets/Arial.ttf to '/root/.config/Ultralytics/Arial.ttf'...\n", - "100% 755k/755k [00:00<00:00, 17.5MB/s]\n", - "\u001b[34m\u001b[1mval: \u001b[0mScanning /content/datasets/coco8/labels/val... 4 images, 0 backgrounds, 0 corrupt: 100% 4/4 [00:00<00:00, 276.04it/s]\n", + "100% 755k/755k [00:00<00:00, 17.8MB/s]\n", + "\u001b[34m\u001b[1mval: \u001b[0mScanning /content/datasets/coco8/labels/val... 4 images, 0 backgrounds, 0 corrupt: 100% 4/4 [00:00<00:00, 275.94it/s]\n", "\u001b[34m\u001b[1mval: \u001b[0mNew cache created: /content/datasets/coco8/labels/val.cache\n", - " Class Images Instances Box(P R mAP50 mAP50-95): 100% 1/1 [00:03<00:00, 3.84s/it]\n", + " Class Images Instances Box(P R mAP50 mAP50-95): 100% 1/1 [00:02<00:00, 2.23s/it]\n", " all 4 17 0.621 0.833 0.888 0.63\n", " person 4 10 0.721 0.5 0.519 0.269\n", " dog 4 1 0.37 1 0.995 0.597\n", @@ -195,8 +196,9 @@ " elephant 4 2 0.505 0.5 0.828 0.394\n", " umbrella 4 1 0.564 1 0.995 0.995\n", " potted plant 4 1 0.814 1 0.995 0.895\n", - "Speed: 0.3ms preprocess, 78.7ms inference, 0.0ms loss, 65.4ms postprocess per image\n", - "Results saved to \u001b[1mruns/detect/val\u001b[0m\n" + "Speed: 0.3ms preprocess, 56.9ms inference, 0.0ms loss, 222.8ms postprocess per image\n", + "Results saved to \u001b[1mruns/detect/val\u001b[0m\n", + "💡 Learn more at https://docs.ultralytics.com/modes/val\n" ] } ] @@ -237,7 +239,7 @@ "cell_type": "code", "metadata": { "id": "1NcFxRcFdJ_O", - "outputId": "b750f2fe-c4d9-4764-b8d5-ed7bd920697b", + "outputId": "1ec62d53-41eb-444f-e2f7-cef5c18b9a27", "colab": { "base_uri": "https://localhost:8080/" } @@ -246,14 +248,14 @@ "# Train YOLOv8n on COCO8 for 3 epochs\n", "!yolo train model=yolov8n.pt data=coco8.yaml epochs=3 imgsz=640" ], - "execution_count": null, + "execution_count": 4, "outputs": [ { "output_type": "stream", "name": "stdout", "text": [ - "Ultralytics YOLOv8.0.145 🚀 Python-3.10.6 torch-2.0.1+cu118 CUDA:0 (Tesla T4, 15102MiB)\n", - "\u001b[34m\u001b[1mengine/trainer: \u001b[0mtask=detect, mode=train, model=yolov8n.pt, data=coco8.yaml, epochs=3, patience=50, batch=16, imgsz=640, save=True, save_period=-1, cache=False, device=None, workers=8, project=None, name=None, exist_ok=False, pretrained=True, optimizer=auto, verbose=True, seed=0, deterministic=True, single_cls=False, rect=False, cos_lr=False, close_mosaic=10, resume=False, amp=True, fraction=1.0, profile=False, overlap_mask=True, mask_ratio=4, dropout=0.0, val=True, split=val, save_json=False, save_hybrid=False, conf=None, iou=0.7, max_det=300, half=False, dnn=False, plots=True, source=None, show=False, save_txt=False, save_conf=False, save_crop=False, show_labels=True, show_conf=True, vid_stride=1, line_width=None, visualize=False, augment=False, agnostic_nms=False, classes=None, retina_masks=False, boxes=True, format=torchscript, keras=False, optimize=False, int8=False, dynamic=False, simplify=False, opset=None, workspace=4, nms=False, lr0=0.01, lrf=0.01, momentum=0.937, weight_decay=0.0005, warmup_epochs=3.0, warmup_momentum=0.8, warmup_bias_lr=0.1, box=7.5, cls=0.5, dfl=1.5, pose=12.0, kobj=1.0, label_smoothing=0.0, nbs=64, hsv_h=0.015, hsv_s=0.7, hsv_v=0.4, degrees=0.0, translate=0.1, scale=0.5, shear=0.0, perspective=0.0, flipud=0.0, fliplr=0.5, mosaic=1.0, mixup=0.0, copy_paste=0.0, cfg=None, tracker=botsort.yaml, save_dir=runs/detect/train\n", + "Ultralytics YOLOv8.1.23 🚀 Python-3.10.12 torch-2.1.0+cu121 CUDA:0 (Tesla T4, 15102MiB)\n", + "\u001b[34m\u001b[1mengine/trainer: \u001b[0mtask=detect, mode=train, model=yolov8n.pt, data=coco8.yaml, epochs=3, time=None, patience=100, batch=16, imgsz=640, save=True, save_period=-1, cache=False, device=None, workers=8, project=None, name=train, exist_ok=False, pretrained=True, optimizer=auto, verbose=True, seed=0, deterministic=True, single_cls=False, rect=False, cos_lr=False, close_mosaic=10, resume=False, amp=True, fraction=1.0, profile=False, freeze=None, multi_scale=False, overlap_mask=True, mask_ratio=4, dropout=0.0, val=True, split=val, save_json=False, save_hybrid=False, conf=None, iou=0.7, max_det=300, half=False, dnn=False, plots=True, source=None, vid_stride=1, stream_buffer=False, visualize=False, augment=False, agnostic_nms=False, classes=None, retina_masks=False, embed=None, show=False, save_frames=False, save_txt=False, save_conf=False, save_crop=False, show_labels=True, show_conf=True, show_boxes=True, line_width=None, format=torchscript, keras=False, optimize=False, int8=False, dynamic=False, simplify=False, opset=None, workspace=4, nms=False, lr0=0.01, lrf=0.01, momentum=0.937, weight_decay=0.0005, warmup_epochs=3.0, warmup_momentum=0.8, warmup_bias_lr=0.1, box=7.5, cls=0.5, dfl=1.5, pose=12.0, kobj=1.0, label_smoothing=0.0, nbs=64, hsv_h=0.015, hsv_s=0.7, hsv_v=0.4, degrees=0.0, translate=0.1, scale=0.5, shear=0.0, perspective=0.0, flipud=0.0, fliplr=0.5, mosaic=1.0, mixup=0.0, copy_paste=0.0, auto_augment=randaugment, erasing=0.4, crop_fraction=1.0, cfg=None, tracker=botsort.yaml, save_dir=runs/detect/train\n", "\n", " from n params module arguments \n", " 0 -1 1 464 ultralytics.nn.modules.conv.Conv [3, 16, 3, 2] \n", @@ -279,55 +281,59 @@ " 20 [-1, 9] 1 0 ultralytics.nn.modules.conv.Concat [1] \n", " 21 -1 1 493056 ultralytics.nn.modules.block.C2f [384, 256, 1] \n", " 22 [15, 18, 21] 1 897664 ultralytics.nn.modules.head.Detect [80, [64, 128, 256]] \n", - "Model summary: 225 layers, 3157200 parameters, 3157184 gradients\n", + "Model summary: 225 layers, 3157200 parameters, 3157184 gradients, 8.9 GFLOPs\n", "\n", "Transferred 355/355 items from pretrained weights\n", "\u001b[34m\u001b[1mTensorBoard: \u001b[0mStart with 'tensorboard --logdir runs/detect/train', view at http://localhost:6006/\n", + "Freezing layer 'model.22.dfl.conv.weight'\n", "\u001b[34m\u001b[1mAMP: \u001b[0mrunning Automatic Mixed Precision (AMP) checks with YOLOv8n...\n", "\u001b[34m\u001b[1mAMP: \u001b[0mchecks passed ✅\n", - "\u001b[34m\u001b[1mtrain: \u001b[0mScanning /content/datasets/coco8/labels/train... 4 images, 0 backgrounds, 0 corrupt: 100% 4/4 [00:00<00:00, 860.11it/s]\n", + "\u001b[34m\u001b[1mtrain: \u001b[0mScanning /content/datasets/coco8/labels/train... 4 images, 0 backgrounds, 0 corrupt: 100% 4/4 [00:00<00:00, 43351.98it/s]\n", "\u001b[34m\u001b[1mtrain: \u001b[0mNew cache created: /content/datasets/coco8/labels/train.cache\n", "\u001b[34m\u001b[1malbumentations: \u001b[0mBlur(p=0.01, blur_limit=(3, 7)), MedianBlur(p=0.01, blur_limit=(3, 7)), ToGray(p=0.01), CLAHE(p=0.01, clip_limit=(1, 4.0), tile_grid_size=(8, 8))\n", "\u001b[34m\u001b[1mval: \u001b[0mScanning /content/datasets/coco8/labels/val.cache... 4 images, 0 backgrounds, 0 corrupt: 100% 4/4 [00:00=9.5.9", "mkdocstrings[python]", "mkdocs-jupyter", # for notebooks "mkdocs-redirects", # for 301 redirects - "mkdocs-ultralytics-plugin>=0.0.40", # for meta descriptions and images, dates and authors + "mkdocs-ultralytics-plugin>=0.0.44", # for meta descriptions and images, dates and authors ] export = [ "onnx>=1.12.0", # ONNX export - "coremltools>=7.0; platform_system != 'Windows'", # CoreML only supported on macOS and Linux - "openvino-dev>=2023.0", # OpenVINO export - "tensorflow<=2.13.1", # TF bug https://github.com/ultralytics/ultralytics/issues/5161 - "tensorflowjs>=3.9.0", # TF.js export, automatically installs tensorflow + "coremltools>=7.0; platform_system != 'Windows' and python_version <= '3.11'", # CoreML supported on macOS and Linux + "openvino>=2024.0.0", # OpenVINO export + "tensorflow<=2.13.1; python_version <= '3.11'", # TF bug https://github.com/ultralytics/ultralytics/issues/5161 + "tensorflowjs>=3.9.0; python_version <= '3.11'", # TF.js export, automatically installs tensorflow ] explorer = [ "lancedb", # vector search - "duckdb", # SQL queries, supports lancedb tables + "duckdb<=0.9.2", # SQL queries, duckdb==0.10.0 bug https://github.com/ultralytics/ultralytics/pull/8181 "streamlit", # visualizing with GUI ] # tensorflow>=2.4.1,<=2.13.1 # TF exports (-cpu, -aarch64, -macos) # tflite-support # for TFLite model metadata -# scikit-learn==0.19.2 # CoreML quantization # nvidia-pyindex # TensorRT export # nvidia-tensorrt # TensorRT export logging = [ @@ -115,10 +115,10 @@ logging = [ "dvclive>=2.12.0", ] extra = [ - "hub-sdk>=0.0.2", # Ultralytics HUB + "hub-sdk>=0.0.5", # Ultralytics HUB "ipython", # interactive notebook "albumentations>=1.0.3", # training augmentations - "pycocotools>=2.0.6", # COCO mAP + "pycocotools>=2.0.7", # COCO mAP ] [project.urls] @@ -138,9 +138,13 @@ package-data = { "ultralytics" = ["**/*.yaml"], "ultralytics.assets" = ["*.jpg"] [tool.setuptools.dynamic] version = { attr = "ultralytics.__version__" } -[tool.pytest] -norecursedirs = [".git", "dist", "build"] +[tool.pytest.ini_options] addopts = "--doctest-modules --durations=30 --color=yes" +markers = [ + "slow: skip slow tests unless --slow is set", +] +norecursedirs = [".git", "dist", "build"] + [tool.coverage.run] source = ["ultralytics/"] diff --git a/tests/conftest.py b/tests/conftest.py index 59955bd1cef..58c07b79171 100644 --- a/tests/conftest.py +++ b/tests/conftest.py @@ -3,9 +3,7 @@ import shutil from pathlib import Path -import pytest - -TMP = Path(__file__).resolve().parent / 'tmp' # temp directory for test files +TMP = Path(__file__).resolve().parent / "tmp" # temp directory for test files def pytest_addoption(parser): @@ -15,28 +13,7 @@ def pytest_addoption(parser): Args: parser (pytest.config.Parser): The pytest parser object. """ - parser.addoption('--slow', action='store_true', default=False, help='Run slow tests') - - -def pytest_configure(config): - """ - Register custom markers to avoid pytest warnings. - - Args: - config (pytest.config.Config): The pytest config object. - """ - config.addinivalue_line('markers', 'slow: mark test as slow to run') - - -def pytest_runtest_setup(item): - """ - Setup hook to skip tests marked as slow if the --slow option is not provided. - - Args: - item (pytest.Item): The test item object. - """ - if 'slow' in item.keywords and not item.config.getoption('--slow'): - pytest.skip('skip slow tests unless --slow is set') + parser.addoption("--slow", action="store_true", default=False, help="Run slow tests") def pytest_collection_modifyitems(config, items): @@ -47,9 +24,9 @@ def pytest_collection_modifyitems(config, items): config (pytest.config.Config): The pytest config object. items (list): List of test items to be executed. """ - if not config.getoption('--slow'): + if not config.getoption("--slow"): # Remove the item entirely from the list of test items if it's marked as 'slow' - items[:] = [item for item in items if 'slow' not in item.keywords] + items[:] = [item for item in items if "slow" not in item.keywords] def pytest_sessionstart(session): @@ -84,11 +61,11 @@ def pytest_terminal_summary(terminalreporter, exitstatus, config): from ultralytics.utils import WEIGHTS_DIR # Remove files - models = [path for x in ['*.onnx', '*.torchscript'] for path in WEIGHTS_DIR.rglob(x)] - for file in ['bus.jpg', 'yolov8n.onnx', 'yolov8n.torchscript'] + models: + models = [path for x in ["*.onnx", "*.torchscript"] for path in WEIGHTS_DIR.rglob(x)] + for file in ["bus.jpg", "yolov8n.onnx", "yolov8n.torchscript"] + models: Path(file).unlink(missing_ok=True) # Remove directories - models = [path for x in ['*.mlpackage', '*_openvino_model'] for path in WEIGHTS_DIR.rglob(x)] - for directory in [TMP.parents[1] / '.pytest_cache', TMP] + models: + models = [path for x in ["*.mlpackage", "*_openvino_model"] for path in WEIGHTS_DIR.rglob(x)] + for directory in [TMP.parents[1] / ".pytest_cache", TMP] + models: shutil.rmtree(directory, ignore_errors=True) diff --git a/tests/test_cli.py b/tests/test_cli.py index 994ce5a28e9..eeeab0727d9 100644 --- a/tests/test_cli.py +++ b/tests/test_cli.py @@ -4,23 +4,24 @@ import pytest -from ultralytics.utils import ASSETS, WEIGHTS_DIR -from ultralytics.utils.checks import cuda_device_count, cuda_is_available +from ultralytics.utils import ASSETS, WEIGHTS_DIR, checks -CUDA_IS_AVAILABLE = cuda_is_available() -CUDA_DEVICE_COUNT = cuda_device_count() +CUDA_IS_AVAILABLE = checks.cuda_is_available() +CUDA_DEVICE_COUNT = checks.cuda_device_count() TASK_ARGS = [ - ('detect', 'yolov8n', 'coco8.yaml'), - ('segment', 'yolov8n-seg', 'coco8-seg.yaml'), - ('classify', 'yolov8n-cls', 'imagenet10'), - ('pose', 'yolov8n-pose', 'coco8-pose.yaml'), - ('obb', 'yolov8n-obb', 'dota8.yaml'), ] # (task, model, data) + ("detect", "yolov8n", "coco8.yaml"), + ("segment", "yolov8n-seg", "coco8-seg.yaml"), + ("classify", "yolov8n-cls", "imagenet10"), + ("pose", "yolov8n-pose", "coco8-pose.yaml"), + ("obb", "yolov8n-obb", "dota8.yaml"), +] # (task, model, data) EXPORT_ARGS = [ - ('yolov8n', 'torchscript'), - ('yolov8n-seg', 'torchscript'), - ('yolov8n-cls', 'torchscript'), - ('yolov8n-pose', 'torchscript'), - ('yolov8n-obb', 'torchscript'), ] # (model, format) + ("yolov8n", "torchscript"), + ("yolov8n-seg", "torchscript"), + ("yolov8n-cls", "torchscript"), + ("yolov8n-pose", "torchscript"), + ("yolov8n-obb", "torchscript"), +] # (model, format) def run(cmd): @@ -30,50 +31,51 @@ def run(cmd): def test_special_modes(): """Test various special command modes of YOLO.""" - run('yolo help') - run('yolo checks') - run('yolo version') - run('yolo settings reset') - run('yolo cfg') + run("yolo help") + run("yolo checks") + run("yolo version") + run("yolo settings reset") + run("yolo cfg") -@pytest.mark.parametrize('task,model,data', TASK_ARGS) +@pytest.mark.parametrize("task,model,data", TASK_ARGS) def test_train(task, model, data): """Test YOLO training for a given task, model, and data.""" - run(f'yolo train {task} model={model}.yaml data={data} imgsz=32 epochs=1 cache=disk') + run(f"yolo train {task} model={model}.yaml data={data} imgsz=32 epochs=1 cache=disk") -@pytest.mark.parametrize('task,model,data', TASK_ARGS) +@pytest.mark.parametrize("task,model,data", TASK_ARGS) def test_val(task, model, data): """Test YOLO validation for a given task, model, and data.""" - run(f'yolo val {task} model={WEIGHTS_DIR / model}.pt data={data} imgsz=32 save_txt save_json') + run(f"yolo val {task} model={WEIGHTS_DIR / model}.pt data={data} imgsz=32 save_txt save_json") -@pytest.mark.parametrize('task,model,data', TASK_ARGS) +@pytest.mark.parametrize("task,model,data", TASK_ARGS) def test_predict(task, model, data): """Test YOLO prediction on sample assets for a given task and model.""" - run(f'yolo predict model={WEIGHTS_DIR / model}.pt source={ASSETS} imgsz=32 save save_crop save_txt') + run(f"yolo predict model={WEIGHTS_DIR / model}.pt source={ASSETS} imgsz=32 save save_crop save_txt") -@pytest.mark.parametrize('model,format', EXPORT_ARGS) +@pytest.mark.parametrize("model,format", EXPORT_ARGS) def test_export(model, format): """Test exporting a YOLO model to different formats.""" - run(f'yolo export model={WEIGHTS_DIR / model}.pt format={format} imgsz=32') + run(f"yolo export model={WEIGHTS_DIR / model}.pt format={format} imgsz=32") -def test_rtdetr(task='detect', model='yolov8n-rtdetr.yaml', data='coco8.yaml'): +def test_rtdetr(task="detect", model="yolov8n-rtdetr.yaml", data="coco8.yaml"): """Test the RTDETR functionality with the Ultralytics framework.""" # Warning: MUST use imgsz=640 - run(f'yolo train {task} model={model} data={data} --imgsz= 640 epochs =1, cache = disk') # add coma, spaces to args - run(f"yolo predict {task} model={model} source={ASSETS / 'bus.jpg'} imgsz=640 save save_crop save_txt") + run(f"yolo train {task} model={model} data={data} --imgsz= 160 epochs =1, cache = disk") # add coma, spaces to args + run(f"yolo predict {task} model={model} source={ASSETS / 'bus.jpg'} imgsz=160 save save_crop save_txt") -def test_fastsam(task='segment', model=WEIGHTS_DIR / 'FastSAM-s.pt', data='coco8-seg.yaml'): +@pytest.mark.skipif(checks.IS_PYTHON_3_12, reason="MobileSAM with CLIP is not supported in Python 3.12") +def test_fastsam(task="segment", model=WEIGHTS_DIR / "FastSAM-s.pt", data="coco8-seg.yaml"): """Test FastSAM segmentation functionality within Ultralytics.""" - source = ASSETS / 'bus.jpg' + source = ASSETS / "bus.jpg" - run(f'yolo segment val {task} model={model} data={data} imgsz=32') - run(f'yolo segment predict model={model} source={source} imgsz=32 save save_crop save_txt') + run(f"yolo segment val {task} model={model} data={data} imgsz=32") + run(f"yolo segment predict model={model} source={source} imgsz=32 save save_crop save_txt") from ultralytics import FastSAM from ultralytics.models.fastsam import FastSAMPrompt @@ -83,26 +85,26 @@ def test_fastsam(task='segment', model=WEIGHTS_DIR / 'FastSAM-s.pt', data='coco8 sam_model = FastSAM(model) # or FastSAM-x.pt # Run inference on an image - everything_results = sam_model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) + everything_results = sam_model(source, device="cpu", retina_masks=True, imgsz=1024, conf=0.4, iou=0.9) # Remove small regions new_masks, _ = Predictor.remove_small_regions(everything_results[0].masks.data, min_area=20) # Everything prompt - prompt_process = FastSAMPrompt(source, everything_results, device='cpu') + prompt_process = FastSAMPrompt(source, everything_results, device="cpu") ann = prompt_process.everything_prompt() # Bbox default shape [0,0,0,0] -> [x1,y1,x2,y2] ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300]) # Text prompt - ann = prompt_process.text_prompt(text='a photo of a dog') + ann = prompt_process.text_prompt(text="a photo of a dog") # Point prompt # Points default [[0,0]] [[x1,y1],[x2,y2]] # Point_label default [0] [1,0] 0:background, 1:foreground ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1]) - prompt_process.plot(annotations=ann, output='./') + prompt_process.plot(annotations=ann, output="./") def test_mobilesam(): @@ -110,10 +112,10 @@ def test_mobilesam(): from ultralytics import SAM # Load the model - model = SAM(WEIGHTS_DIR / 'mobile_sam.pt') + model = SAM(WEIGHTS_DIR / "mobile_sam.pt") # Source - source = ASSETS / 'zidane.jpg' + source = ASSETS / "zidane.jpg" # Predict a segment based on a point prompt model.predict(source, points=[900, 370], labels=[1]) @@ -127,10 +129,10 @@ def test_mobilesam(): # Slow Tests ----------------------------------------------------------------------------------------------------------- @pytest.mark.slow -@pytest.mark.parametrize('task,model,data', TASK_ARGS) -@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason='CUDA is not available') -@pytest.mark.skipif(CUDA_DEVICE_COUNT < 2, reason='DDP is not available') +@pytest.mark.parametrize("task,model,data", TASK_ARGS) +@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason="CUDA is not available") +@pytest.mark.skipif(CUDA_DEVICE_COUNT < 2, reason="DDP is not available") def test_train_gpu(task, model, data): """Test YOLO training on GPU(s) for various tasks and models.""" - run(f'yolo train {task} model={model}.yaml data={data} imgsz=32 epochs=1 device=0') # single GPU - run(f'yolo train {task} model={model}.pt data={data} imgsz=32 epochs=1 device=0,1') # multi GPU + run(f"yolo train {task} model={model}.yaml data={data} imgsz=32 epochs=1 device=0") # single GPU + run(f"yolo train {task} model={model}.pt data={data} imgsz=32 epochs=1 device=0,1") # multi GPU diff --git a/tests/test_cuda.py b/tests/test_cuda.py index eb49a08f561..ed08f700703 100644 --- a/tests/test_cuda.py +++ b/tests/test_cuda.py @@ -9,9 +9,9 @@ CUDA_IS_AVAILABLE = checks.cuda_is_available() CUDA_DEVICE_COUNT = checks.cuda_device_count() -MODEL = WEIGHTS_DIR / 'path with spaces' / 'yolov8n.pt' # test spaces in path -DATA = 'coco8.yaml' -BUS = ASSETS / 'bus.jpg' +MODEL = WEIGHTS_DIR / "path with spaces" / "yolov8n.pt" # test spaces in path +DATA = "coco8.yaml" +BUS = ASSETS / "bus.jpg" def test_checks(): @@ -20,7 +20,7 @@ def test_checks(): assert torch.cuda.device_count() == CUDA_DEVICE_COUNT -@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason='CUDA is not available') +@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason="CUDA is not available") def test_train(): """Test model training on a minimal dataset.""" device = 0 if CUDA_DEVICE_COUNT == 1 else [0, 1] @@ -28,32 +28,32 @@ def test_train(): @pytest.mark.slow -@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason='CUDA is not available') +@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason="CUDA is not available") def test_predict_multiple_devices(): """Validate model prediction on multiple devices.""" - model = YOLO('yolov8n.pt') + model = YOLO("yolov8n.pt") model = model.cpu() - assert str(model.device) == 'cpu' + assert str(model.device) == "cpu" _ = model(BUS) # CPU inference - assert str(model.device) == 'cpu' + assert str(model.device) == "cpu" - model = model.to('cuda:0') - assert str(model.device) == 'cuda:0' + model = model.to("cuda:0") + assert str(model.device) == "cuda:0" _ = model(BUS) # CUDA inference - assert str(model.device) == 'cuda:0' + assert str(model.device) == "cuda:0" model = model.cpu() - assert str(model.device) == 'cpu' + assert str(model.device) == "cpu" _ = model(BUS) # CPU inference - assert str(model.device) == 'cpu' + assert str(model.device) == "cpu" model = model.cuda() - assert str(model.device) == 'cuda:0' + assert str(model.device) == "cuda:0" _ = model(BUS) # CUDA inference - assert str(model.device) == 'cuda:0' + assert str(model.device) == "cuda:0" -@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason='CUDA is not available') +@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason="CUDA is not available") def test_autobatch(): """Check batch size for YOLO model using autobatch.""" from ultralytics.utils.autobatch import check_train_batch_size @@ -62,24 +62,24 @@ def test_autobatch(): @pytest.mark.slow -@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason='CUDA is not available') +@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason="CUDA is not available") def test_utils_benchmarks(): """Profile YOLO models for performance benchmarks.""" from ultralytics.utils.benchmarks import ProfileModels # Pre-export a dynamic engine model to use dynamic inference - YOLO(MODEL).export(format='engine', imgsz=32, dynamic=True, batch=1) + YOLO(MODEL).export(format="engine", imgsz=32, dynamic=True, batch=1) ProfileModels([MODEL], imgsz=32, half=False, min_time=1, num_timed_runs=3, num_warmup_runs=1).profile() -@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason='CUDA is not available') +@pytest.mark.skipif(not CUDA_IS_AVAILABLE, reason="CUDA is not available") def test_predict_sam(): """Test SAM model prediction with various prompts.""" from ultralytics import SAM from ultralytics.models.sam import Predictor as SAMPredictor # Load a model - model = SAM(WEIGHTS_DIR / 'sam_b.pt') + model = SAM(WEIGHTS_DIR / "sam_b.pt") # Display model information (optional) model.info() @@ -91,14 +91,14 @@ def test_predict_sam(): model(BUS, bboxes=[439, 437, 524, 709], device=0) # Run inference with points prompt - model(ASSETS / 'zidane.jpg', points=[900, 370], labels=[1], device=0) + model(ASSETS / "zidane.jpg", points=[900, 370], labels=[1], device=0) # Create SAMPredictor - overrides = dict(conf=0.25, task='segment', mode='predict', imgsz=1024, model=WEIGHTS_DIR / 'mobile_sam.pt') + overrides = dict(conf=0.25, task="segment", mode="predict", imgsz=1024, model=WEIGHTS_DIR / "mobile_sam.pt") predictor = SAMPredictor(overrides=overrides) # Set image - predictor.set_image(ASSETS / 'zidane.jpg') # set with image file + predictor.set_image(ASSETS / "zidane.jpg") # set with image file # predictor(bboxes=[439, 437, 524, 709]) # predictor(points=[900, 370], labels=[1]) diff --git a/tests/test_engine.py b/tests/test_engine.py index ce328efca4d..bd528a8d833 100644 --- a/tests/test_engine.py +++ b/tests/test_engine.py @@ -6,123 +6,123 @@ from ultralytics.models.yolo import classify, detect, segment from ultralytics.utils import ASSETS, DEFAULT_CFG, WEIGHTS_DIR -CFG_DET = 'yolov8n.yaml' -CFG_SEG = 'yolov8n-seg.yaml' -CFG_CLS = 'yolov8n-cls.yaml' # or 'squeezenet1_0' +CFG_DET = "yolov8n.yaml" +CFG_SEG = "yolov8n-seg.yaml" +CFG_CLS = "yolov8n-cls.yaml" # or 'squeezenet1_0' CFG = get_cfg(DEFAULT_CFG) -MODEL = WEIGHTS_DIR / 'yolov8n' +MODEL = WEIGHTS_DIR / "yolov8n" def test_func(*args): # noqa """Test function callback.""" - print('callback test passed') + print("callback test passed") def test_export(): """Test model exporting functionality.""" exporter = Exporter() - exporter.add_callback('on_export_start', test_func) - assert test_func in exporter.callbacks['on_export_start'], 'callback test failed' + exporter.add_callback("on_export_start", test_func) + assert test_func in exporter.callbacks["on_export_start"], "callback test failed" f = exporter(model=YOLO(CFG_DET).model) YOLO(f)(ASSETS) # exported model inference def test_detect(): """Test object detection functionality.""" - overrides = {'data': 'coco8.yaml', 'model': CFG_DET, 'imgsz': 32, 'epochs': 1, 'save': False} - CFG.data = 'coco8.yaml' + overrides = {"data": "coco8.yaml", "model": CFG_DET, "imgsz": 32, "epochs": 1, "save": False} + CFG.data = "coco8.yaml" CFG.imgsz = 32 # Trainer trainer = detect.DetectionTrainer(overrides=overrides) - trainer.add_callback('on_train_start', test_func) - assert test_func in trainer.callbacks['on_train_start'], 'callback test failed' + trainer.add_callback("on_train_start", test_func) + assert test_func in trainer.callbacks["on_train_start"], "callback test failed" trainer.train() # Validator val = detect.DetectionValidator(args=CFG) - val.add_callback('on_val_start', test_func) - assert test_func in val.callbacks['on_val_start'], 'callback test failed' + val.add_callback("on_val_start", test_func) + assert test_func in val.callbacks["on_val_start"], "callback test failed" val(model=trainer.best) # validate best.pt # Predictor - pred = detect.DetectionPredictor(overrides={'imgsz': [64, 64]}) - pred.add_callback('on_predict_start', test_func) - assert test_func in pred.callbacks['on_predict_start'], 'callback test failed' - result = pred(source=ASSETS, model=f'{MODEL}.pt') - assert len(result), 'predictor test failed' + pred = detect.DetectionPredictor(overrides={"imgsz": [64, 64]}) + pred.add_callback("on_predict_start", test_func) + assert test_func in pred.callbacks["on_predict_start"], "callback test failed" + result = pred(source=ASSETS, model=f"{MODEL}.pt") + assert len(result), "predictor test failed" - overrides['resume'] = trainer.last + overrides["resume"] = trainer.last trainer = detect.DetectionTrainer(overrides=overrides) try: trainer.train() except Exception as e: - print(f'Expected exception caught: {e}') + print(f"Expected exception caught: {e}") return - Exception('Resume test failed!') + Exception("Resume test failed!") def test_segment(): """Test image segmentation functionality.""" - overrides = {'data': 'coco8-seg.yaml', 'model': CFG_SEG, 'imgsz': 32, 'epochs': 1, 'save': False} - CFG.data = 'coco8-seg.yaml' + overrides = {"data": "coco8-seg.yaml", "model": CFG_SEG, "imgsz": 32, "epochs": 1, "save": False} + CFG.data = "coco8-seg.yaml" CFG.imgsz = 32 # YOLO(CFG_SEG).train(**overrides) # works # Trainer trainer = segment.SegmentationTrainer(overrides=overrides) - trainer.add_callback('on_train_start', test_func) - assert test_func in trainer.callbacks['on_train_start'], 'callback test failed' + trainer.add_callback("on_train_start", test_func) + assert test_func in trainer.callbacks["on_train_start"], "callback test failed" trainer.train() # Validator val = segment.SegmentationValidator(args=CFG) - val.add_callback('on_val_start', test_func) - assert test_func in val.callbacks['on_val_start'], 'callback test failed' + val.add_callback("on_val_start", test_func) + assert test_func in val.callbacks["on_val_start"], "callback test failed" val(model=trainer.best) # validate best.pt # Predictor - pred = segment.SegmentationPredictor(overrides={'imgsz': [64, 64]}) - pred.add_callback('on_predict_start', test_func) - assert test_func in pred.callbacks['on_predict_start'], 'callback test failed' - result = pred(source=ASSETS, model=f'{MODEL}-seg.pt') - assert len(result), 'predictor test failed' + pred = segment.SegmentationPredictor(overrides={"imgsz": [64, 64]}) + pred.add_callback("on_predict_start", test_func) + assert test_func in pred.callbacks["on_predict_start"], "callback test failed" + result = pred(source=ASSETS, model=f"{MODEL}-seg.pt") + assert len(result), "predictor test failed" # Test resume - overrides['resume'] = trainer.last + overrides["resume"] = trainer.last trainer = segment.SegmentationTrainer(overrides=overrides) try: trainer.train() except Exception as e: - print(f'Expected exception caught: {e}') + print(f"Expected exception caught: {e}") return - Exception('Resume test failed!') + Exception("Resume test failed!") def test_classify(): """Test image classification functionality.""" - overrides = {'data': 'imagenet10', 'model': CFG_CLS, 'imgsz': 32, 'epochs': 1, 'save': False} - CFG.data = 'imagenet10' + overrides = {"data": "imagenet10", "model": CFG_CLS, "imgsz": 32, "epochs": 1, "save": False} + CFG.data = "imagenet10" CFG.imgsz = 32 # YOLO(CFG_SEG).train(**overrides) # works # Trainer trainer = classify.ClassificationTrainer(overrides=overrides) - trainer.add_callback('on_train_start', test_func) - assert test_func in trainer.callbacks['on_train_start'], 'callback test failed' + trainer.add_callback("on_train_start", test_func) + assert test_func in trainer.callbacks["on_train_start"], "callback test failed" trainer.train() # Validator val = classify.ClassificationValidator(args=CFG) - val.add_callback('on_val_start', test_func) - assert test_func in val.callbacks['on_val_start'], 'callback test failed' + val.add_callback("on_val_start", test_func) + assert test_func in val.callbacks["on_val_start"], "callback test failed" val(model=trainer.best) # Predictor - pred = classify.ClassificationPredictor(overrides={'imgsz': [64, 64]}) - pred.add_callback('on_predict_start', test_func) - assert test_func in pred.callbacks['on_predict_start'], 'callback test failed' + pred = classify.ClassificationPredictor(overrides={"imgsz": [64, 64]}) + pred.add_callback("on_predict_start", test_func) + assert test_func in pred.callbacks["on_predict_start"], "callback test failed" result = pred(source=ASSETS, model=trainer.best) - assert len(result), 'predictor test failed' + assert len(result), "predictor test failed" diff --git a/tests/test_explorer.py b/tests/test_explorer.py index eed02ae5ebf..296db949788 100644 --- a/tests/test_explorer.py +++ b/tests/test_explorer.py @@ -1,18 +1,20 @@ # Ultralytics YOLO 🚀, AGPL-3.0 license +import PIL +import pytest + from ultralytics import Explorer from ultralytics.utils import ASSETS -import PIL - +@pytest.mark.slow def test_similarity(): """Test similarity calculations and SQL queries for correctness and response length.""" exp = Explorer() exp.create_embeddings_table() similar = exp.get_similar(idx=1) assert len(similar) == 25 - similar = exp.get_similar(img=ASSETS / 'zidane.jpg') + similar = exp.get_similar(img=ASSETS / "zidane.jpg") assert len(similar) == 25 similar = exp.get_similar(idx=[1, 2], limit=10) assert len(similar) == 10 @@ -22,11 +24,12 @@ def test_similarity(): assert len(sql) > 0 +@pytest.mark.slow def test_det(): """Test detection functionalities and ensure the embedding table has bounding boxes.""" - exp = Explorer(data='coco8.yaml', model='yolov8n.pt') + exp = Explorer(data="coco8.yaml", model="yolov8n.pt") exp.create_embeddings_table(force=True) - assert len(exp.table.head()['bboxes']) > 0 + assert len(exp.table.head()["bboxes"]) > 0 similar = exp.get_similar(idx=[1, 2], limit=10) assert len(similar) > 0 # This is a loose test, just checks errors not correctness @@ -34,22 +37,24 @@ def test_det(): assert isinstance(similar, PIL.Image.Image) +@pytest.mark.slow def test_seg(): """Test segmentation functionalities and verify the embedding table includes masks.""" - exp = Explorer(data='coco8-seg.yaml', model='yolov8n-seg.pt') + exp = Explorer(data="coco8-seg.yaml", model="yolov8n-seg.pt") exp.create_embeddings_table(force=True) - assert len(exp.table.head()['masks']) > 0 + assert len(exp.table.head()["masks"]) > 0 similar = exp.get_similar(idx=[1, 2], limit=10) assert len(similar) > 0 similar = exp.plot_similar(idx=[1, 2], limit=10) assert isinstance(similar, PIL.Image.Image) +@pytest.mark.slow def test_pose(): """Test pose estimation functionalities and check the embedding table for keypoints.""" - exp = Explorer(data='coco8-pose.yaml', model='yolov8n-pose.pt') + exp = Explorer(data="coco8-pose.yaml", model="yolov8n-pose.pt") exp.create_embeddings_table(force=True) - assert len(exp.table.head()['keypoints']) > 0 + assert len(exp.table.head()["keypoints"]) > 0 similar = exp.get_similar(idx=[1, 2], limit=10) assert len(similar) > 0 similar = exp.plot_similar(idx=[1, 2], limit=10) diff --git a/tests/test_integrations.py b/tests/test_integrations.py index 0831f716079..c598f220d48 100644 --- a/tests/test_integrations.py +++ b/tests/test_integrations.py @@ -9,67 +9,99 @@ from ultralytics.utils import ASSETS, DATASETS_DIR, ROOT, SETTINGS, WEIGHTS_DIR from ultralytics.utils.checks import check_requirements -MODEL = WEIGHTS_DIR / 'path with spaces' / 'yolov8n.pt' # test spaces in path -CFG = 'yolov8n.yaml' -SOURCE = ASSETS / 'bus.jpg' -TMP = (ROOT / '../tests/tmp').resolve() # temp directory for test files +MODEL = WEIGHTS_DIR / "path with spaces" / "yolov8n.pt" # test spaces in path +CFG = "yolov8n.yaml" +SOURCE = ASSETS / "bus.jpg" +TMP = (ROOT / "../tests/tmp").resolve() # temp directory for test files -@pytest.mark.skipif(not check_requirements('ray', install=False), reason='ray[tune] not installed') +@pytest.mark.skipif(not check_requirements("ray", install=False), reason="ray[tune] not installed") def test_model_ray_tune(): """Tune YOLO model with Ray optimization library.""" - YOLO('yolov8n-cls.yaml').tune(use_ray=True, - data='imagenet10', - grace_period=1, - iterations=1, - imgsz=32, - epochs=1, - plots=False, - device='cpu') + YOLO("yolov8n-cls.yaml").tune( + use_ray=True, data="imagenet10", grace_period=1, iterations=1, imgsz=32, epochs=1, plots=False, device="cpu" + ) -@pytest.mark.skipif(not check_requirements('mlflow', install=False), reason='mlflow not installed') +@pytest.mark.skipif(not check_requirements("mlflow", install=False), reason="mlflow not installed") def test_mlflow(): """Test training with MLflow tracking enabled.""" - SETTINGS['mlflow'] = True - YOLO('yolov8n-cls.yaml').train(data='imagenet10', imgsz=32, epochs=3, plots=False, device='cpu') + SETTINGS["mlflow"] = True + YOLO("yolov8n-cls.yaml").train(data="imagenet10", imgsz=32, epochs=3, plots=False, device="cpu") -@pytest.mark.skipif(not check_requirements('tritonclient', install=False), reason='tritonclient[all] not installed') +@pytest.mark.skipif(True, reason="Test failing in scheduled CI https://github.com/ultralytics/ultralytics/pull/8868") +@pytest.mark.skipif(not check_requirements("mlflow", install=False), reason="mlflow not installed") +def test_mlflow_keep_run_active(): + import os + import mlflow + + """Test training with MLflow tracking enabled.""" + SETTINGS["mlflow"] = True + run_name = "Test Run" + os.environ["MLFLOW_RUN"] = run_name + + # Test with MLFLOW_KEEP_RUN_ACTIVE=True + os.environ["MLFLOW_KEEP_RUN_ACTIVE"] = "True" + YOLO("yolov8n-cls.yaml").train(data="imagenet10", imgsz=32, epochs=1, plots=False, device="cpu") + status = mlflow.active_run().info.status + assert status == "RUNNING", "MLflow run should be active when MLFLOW_KEEP_RUN_ACTIVE=True" + + run_id = mlflow.active_run().info.run_id + + # Test with MLFLOW_KEEP_RUN_ACTIVE=False + os.environ["MLFLOW_KEEP_RUN_ACTIVE"] = "False" + YOLO("yolov8n-cls.yaml").train(data="imagenet10", imgsz=32, epochs=1, plots=False, device="cpu") + status = mlflow.get_run(run_id=run_id).info.status + assert status == "FINISHED", "MLflow run should be ended when MLFLOW_KEEP_RUN_ACTIVE=False" + + # Test with MLFLOW_KEEP_RUN_ACTIVE not set + os.environ.pop("MLFLOW_KEEP_RUN_ACTIVE", None) + YOLO("yolov8n-cls.yaml").train(data="imagenet10", imgsz=32, epochs=1, plots=False, device="cpu") + status = mlflow.get_run(run_id=run_id).info.status + assert status == "FINISHED", "MLflow run should be ended by default when MLFLOW_KEEP_RUN_ACTIVE is not set" + + +@pytest.mark.skipif(not check_requirements("tritonclient", install=False), reason="tritonclient[all] not installed") def test_triton(): """Test NVIDIA Triton Server functionalities.""" - check_requirements('tritonclient[all]') + check_requirements("tritonclient[all]") import subprocess import time from tritonclient.http import InferenceServerClient # noqa # Create variables - model_name = 'yolo' - triton_repo_path = TMP / 'triton_repo' - triton_model_path = triton_repo_path / model_name + model_name = "yolo" + triton_repo = TMP / "triton_repo" # Triton repo path + triton_model = triton_repo / model_name # Triton model path # Export model to ONNX - f = YOLO(MODEL).export(format='onnx', dynamic=True) + f = YOLO(MODEL).export(format="onnx", dynamic=True) # Prepare Triton repo - (triton_model_path / '1').mkdir(parents=True, exist_ok=True) - Path(f).rename(triton_model_path / '1' / 'model.onnx') - (triton_model_path / 'config.pbtxt').touch() + (triton_model / "1").mkdir(parents=True, exist_ok=True) + Path(f).rename(triton_model / "1" / "model.onnx") + (triton_model / "config.pbtxt").touch() # Define image https://catalog.ngc.nvidia.com/orgs/nvidia/containers/tritonserver - tag = 'nvcr.io/nvidia/tritonserver:23.09-py3' # 6.4 GB + tag = "nvcr.io/nvidia/tritonserver:23.09-py3" # 6.4 GB # Pull the image - subprocess.call(f'docker pull {tag}', shell=True) + subprocess.call(f"docker pull {tag}", shell=True) # Run the Triton server and capture the container ID - container_id = subprocess.check_output( - f'docker run -d --rm -v {triton_repo_path}:/models -p 8000:8000 {tag} tritonserver --model-repository=/models', - shell=True).decode('utf-8').strip() + container_id = ( + subprocess.check_output( + f"docker run -d --rm -v {triton_repo}:/models -p 8000:8000 {tag} tritonserver --model-repository=/models", + shell=True, + ) + .decode("utf-8") + .strip() + ) # Wait for the Triton server to start - triton_client = InferenceServerClient(url='localhost:8000', verbose=False, ssl=False) + triton_client = InferenceServerClient(url="localhost:8000", verbose=False, ssl=False) # Wait until model is ready for _ in range(10): @@ -79,13 +111,13 @@ def test_triton(): time.sleep(1) # Check Triton inference - YOLO(f'http://localhost:8000/{model_name}', 'detect')(SOURCE) # exported model inference + YOLO(f"http://localhost:8000/{model_name}", "detect")(SOURCE) # exported model inference # Kill and remove the container at the end of the test - subprocess.call(f'docker kill {container_id}', shell=True) + subprocess.call(f"docker kill {container_id}", shell=True) -@pytest.mark.skipif(not check_requirements('pycocotools', install=False), reason='pycocotools not installed') +@pytest.mark.skipif(not check_requirements("pycocotools", install=False), reason="pycocotools not installed") def test_pycocotools(): """Validate model predictions using pycocotools.""" from ultralytics.models.yolo.detect import DetectionValidator @@ -93,25 +125,25 @@ def test_pycocotools(): from ultralytics.models.yolo.segment import SegmentationValidator # Download annotations after each dataset downloads first - url = 'https://github.com/ultralytics/assets/releases/download/v8.1.0/' + url = "https://github.com/ultralytics/assets/releases/download/v8.1.0/" - args = {'model': 'yolov8n.pt', 'data': 'coco8.yaml', 'save_json': True, 'imgsz': 64} + args = {"model": "yolov8n.pt", "data": "coco8.yaml", "save_json": True, "imgsz": 64} validator = DetectionValidator(args=args) validator() validator.is_coco = True - download(f'{url}instances_val2017.json', dir=DATASETS_DIR / 'coco8/annotations') + download(f"{url}instances_val2017.json", dir=DATASETS_DIR / "coco8/annotations") _ = validator.eval_json(validator.stats) - args = {'model': 'yolov8n-seg.pt', 'data': 'coco8-seg.yaml', 'save_json': True, 'imgsz': 64} + args = {"model": "yolov8n-seg.pt", "data": "coco8-seg.yaml", "save_json": True, "imgsz": 64} validator = SegmentationValidator(args=args) validator() validator.is_coco = True - download(f'{url}instances_val2017.json', dir=DATASETS_DIR / 'coco8-seg/annotations') + download(f"{url}instances_val2017.json", dir=DATASETS_DIR / "coco8-seg/annotations") _ = validator.eval_json(validator.stats) - args = {'model': 'yolov8n-pose.pt', 'data': 'coco8-pose.yaml', 'save_json': True, 'imgsz': 64} + args = {"model": "yolov8n-pose.pt", "data": "coco8-pose.yaml", "save_json": True, "imgsz": 64} validator = PoseValidator(args=args) validator() validator.is_coco = True - download(f'{url}person_keypoints_val2017.json', dir=DATASETS_DIR / 'coco8-pose/annotations') + download(f"{url}person_keypoints_val2017.json", dir=DATASETS_DIR / "coco8-pose/annotations") _ = validator.eval_json(validator.stats) diff --git a/tests/test_python.py b/tests/test_python.py index 46d28762860..4301f72e8ac 100644 --- a/tests/test_python.py +++ b/tests/test_python.py @@ -8,21 +8,34 @@ import numpy as np import pytest import torch +import yaml from PIL import Image from torchvision.transforms import ToTensor from ultralytics import RTDETR, YOLO from ultralytics.cfg import TASK2DATA from ultralytics.data.build import load_inference_source -from ultralytics.utils import (ASSETS, DEFAULT_CFG, DEFAULT_CFG_PATH, LINUX, MACOS, ONLINE, ROOT, WEIGHTS_DIR, WINDOWS, - checks, is_dir_writeable) +from ultralytics.utils import ( + ASSETS, + DEFAULT_CFG, + DEFAULT_CFG_PATH, + LINUX, + MACOS, + ONLINE, + ROOT, + WEIGHTS_DIR, + WINDOWS, + Retry, + checks, + is_dir_writeable, +) from ultralytics.utils.downloads import download -from ultralytics.utils.torch_utils import TORCH_1_9 +from ultralytics.utils.torch_utils import TORCH_1_9, TORCH_1_13 -MODEL = WEIGHTS_DIR / 'path with spaces' / 'yolov8n.pt' # test spaces in path -CFG = 'yolov8n.yaml' -SOURCE = ASSETS / 'bus.jpg' -TMP = (ROOT / '../tests/tmp').resolve() # temp directory for test files +MODEL = WEIGHTS_DIR / "path with spaces" / "yolov8n.pt" # test spaces in path +CFG = "yolov8n.yaml" +SOURCE = ASSETS / "bus.jpg" +TMP = (ROOT / "../tests/tmp").resolve() # temp directory for test files IS_TMP_WRITEABLE = is_dir_writeable(TMP) @@ -40,9 +53,9 @@ def test_model_methods(): model.info(verbose=True, detailed=True) model = model.reset_weights() model = model.load(MODEL) - model.to('cpu') + model.to("cpu") model.fuse() - model.clear_callback('on_train_start') + model.clear_callback("on_train_start") model.reset_callbacks() # Model properties @@ -61,23 +74,23 @@ def test_model_profile(): _ = model.predict(im, profile=True) -@pytest.mark.skipif(not IS_TMP_WRITEABLE, reason='directory is not writeable') +@pytest.mark.skipif(not IS_TMP_WRITEABLE, reason="directory is not writeable") def test_predict_txt(): """Test YOLO predictions with sources (file, dir, glob, recursive glob) specified in a text file.""" - txt_file = TMP / 'sources.txt' - with open(txt_file, 'w') as f: - for x in [ASSETS / 'bus.jpg', ASSETS, ASSETS / '*', ASSETS / '**/*.jpg']: - f.write(f'{x}\n') + txt_file = TMP / "sources.txt" + with open(txt_file, "w") as f: + for x in [ASSETS / "bus.jpg", ASSETS, ASSETS / "*", ASSETS / "**/*.jpg"]: + f.write(f"{x}\n") _ = YOLO(MODEL)(source=txt_file, imgsz=32) def test_predict_img(): """Test YOLO prediction on various types of image sources.""" model = YOLO(MODEL) - seg_model = YOLO(WEIGHTS_DIR / 'yolov8n-seg.pt') - cls_model = YOLO(WEIGHTS_DIR / 'yolov8n-cls.pt') - pose_model = YOLO(WEIGHTS_DIR / 'yolov8n-pose.pt') - obb_model = YOLO(WEIGHTS_DIR / 'yolov8n-obb.pt') + seg_model = YOLO(WEIGHTS_DIR / "yolov8n-seg.pt") + cls_model = YOLO(WEIGHTS_DIR / "yolov8n-cls.pt") + pose_model = YOLO(WEIGHTS_DIR / "yolov8n-pose.pt") + obb_model = YOLO(WEIGHTS_DIR / "yolov8n-obb.pt") im = cv2.imread(str(SOURCE)) assert len(model(source=Image.open(SOURCE), save=True, verbose=True, imgsz=32)) == 1 # PIL assert len(model(source=im, save=True, save_txt=True, imgsz=32)) == 1 # ndarray @@ -87,10 +100,11 @@ def test_predict_img(): batch = [ str(SOURCE), # filename Path(SOURCE), # Path - 'https://ultralytics.com/images/zidane.jpg' if ONLINE else SOURCE, # URI + "https://ultralytics.com/images/zidane.jpg" if ONLINE else SOURCE, # URI cv2.imread(str(SOURCE)), # OpenCV Image.open(SOURCE), # PIL - np.zeros((320, 640, 3))] # numpy + np.zeros((320, 640, 3)), + ] # numpy assert len(model(batch, imgsz=32)) == len(batch) # multiple sources in a batch # Test tensor inference @@ -113,16 +127,16 @@ def test_predict_img(): def test_predict_grey_and_4ch(): """Test YOLO prediction on SOURCE converted to greyscale and 4-channel images.""" im = Image.open(SOURCE) - directory = TMP / 'im4' + directory = TMP / "im4" directory.mkdir(parents=True, exist_ok=True) - source_greyscale = directory / 'greyscale.jpg' - source_rgba = directory / '4ch.png' - source_non_utf = directory / 'non_UTF_测试文件_tést_image.jpg' - source_spaces = directory / 'image with spaces.jpg' + source_greyscale = directory / "greyscale.jpg" + source_rgba = directory / "4ch.png" + source_non_utf = directory / "non_UTF_测试文件_tést_image.jpg" + source_spaces = directory / "image with spaces.jpg" - im.convert('L').save(source_greyscale) # greyscale - im.convert('RGBA').save(source_rgba) # 4-ch PNG with alpha + im.convert("L").save(source_greyscale) # greyscale + im.convert("RGBA").save(source_rgba) # 4-ch PNG with alpha im.save(source_non_utf) # non-UTF characters in filename im.save(source_spaces) # spaces in filename @@ -136,7 +150,8 @@ def test_predict_grey_and_4ch(): @pytest.mark.slow -@pytest.mark.skipif(not ONLINE, reason='environment is offline') +@pytest.mark.skipif(not ONLINE, reason="environment is offline") +@Retry(times=3, delay=10) def test_youtube(): """ Test YouTube inference. @@ -144,80 +159,81 @@ def test_youtube(): Marked --slow to reduce YouTube API rate limits risk. """ model = YOLO(MODEL) - model.predict('https://youtu.be/G17sBkb38XQ', imgsz=96, save=True) + model.predict("https://youtu.be/G17sBkb38XQ", imgsz=96, save=True) -@pytest.mark.skipif(not ONLINE, reason='environment is offline') -@pytest.mark.skipif(not IS_TMP_WRITEABLE, reason='directory is not writeable') +@pytest.mark.skipif(not ONLINE, reason="environment is offline") +@pytest.mark.skipif(not IS_TMP_WRITEABLE, reason="directory is not writeable") def test_track_stream(): """ Test streaming tracking (short 10 frame video) with non-default ByteTrack tracker. Note imgsz=160 required for tracking for higher confidence and better matches """ - import yaml - - video_url = 'https://ultralytics.com/assets/decelera_portrait_min.mov' + video_url = "https://ultralytics.com/assets/decelera_portrait_min.mov" model = YOLO(MODEL) - model.track(video_url, imgsz=160, tracker='bytetrack.yaml') - model.track(video_url, imgsz=160, tracker='botsort.yaml', save_frames=True) # test frame saving also + model.track(video_url, imgsz=160, tracker="bytetrack.yaml") + model.track(video_url, imgsz=160, tracker="botsort.yaml", save_frames=True) # test frame saving also # Test Global Motion Compensation (GMC) methods - for gmc in 'orb', 'sift', 'ecc': - with open(ROOT / 'cfg/trackers/botsort.yaml', encoding='utf-8') as f: + for gmc in "orb", "sift", "ecc": + with open(ROOT / "cfg/trackers/botsort.yaml", encoding="utf-8") as f: data = yaml.safe_load(f) - tracker = TMP / f'botsort-{gmc}.yaml' - data['gmc_method'] = gmc - with open(tracker, 'w', encoding='utf-8') as f: + tracker = TMP / f"botsort-{gmc}.yaml" + data["gmc_method"] = gmc + with open(tracker, "w", encoding="utf-8") as f: yaml.safe_dump(data, f) model.track(video_url, imgsz=160, tracker=tracker) def test_val(): """Test the validation mode of the YOLO model.""" - YOLO(MODEL).val(data='coco8.yaml', imgsz=32, save_hybrid=True) + YOLO(MODEL).val(data="coco8.yaml", imgsz=32, save_hybrid=True) def test_train_scratch(): """Test training the YOLO model from scratch.""" model = YOLO(CFG) - model.train(data='coco8.yaml', epochs=2, imgsz=32, cache='disk', batch=-1, close_mosaic=1, name='model') + model.train(data="coco8.yaml", epochs=2, imgsz=32, cache="disk", batch=-1, close_mosaic=1, name="model") model(SOURCE) def test_train_pretrained(): """Test training the YOLO model from a pre-trained state.""" - model = YOLO(WEIGHTS_DIR / 'yolov8n-seg.pt') - model.train(data='coco8-seg.yaml', epochs=1, imgsz=32, cache='ram', copy_paste=0.5, mixup=0.5, name=0) + model = YOLO(WEIGHTS_DIR / "yolov8n-seg.pt") + model.train(data="coco8-seg.yaml", epochs=1, imgsz=32, cache="ram", copy_paste=0.5, mixup=0.5, name=0) model(SOURCE) def test_export_torchscript(): """Test exporting the YOLO model to TorchScript format.""" - f = YOLO(MODEL).export(format='torchscript', optimize=False) + f = YOLO(MODEL).export(format="torchscript", optimize=False) YOLO(f)(SOURCE) # exported model inference def test_export_onnx(): """Test exporting the YOLO model to ONNX format.""" - f = YOLO(MODEL).export(format='onnx', dynamic=True) + f = YOLO(MODEL).export(format="onnx", dynamic=True) YOLO(f)(SOURCE) # exported model inference +@pytest.mark.skipif(checks.IS_PYTHON_3_12, reason="OpenVINO not supported in Python 3.12") +@pytest.mark.skipif(not TORCH_1_13, reason="OpenVINO requires torch>=1.13") def test_export_openvino(): """Test exporting the YOLO model to OpenVINO format.""" - f = YOLO(MODEL).export(format='openvino') + f = YOLO(MODEL).export(format="openvino") YOLO(f)(SOURCE) # exported model inference +@pytest.mark.skipif(checks.IS_PYTHON_3_12, reason="CoreML not supported in Python 3.12") def test_export_coreml(): """Test exporting the YOLO model to CoreML format.""" if not WINDOWS: # RuntimeError: BlobWriter not loaded with coremltools 7.0 on windows if MACOS: - f = YOLO(MODEL).export(format='coreml') + f = YOLO(MODEL).export(format="coreml") YOLO(f)(SOURCE) # model prediction only supported on macOS for nms=False models else: - YOLO(MODEL).export(format='coreml', nms=True) + YOLO(MODEL).export(format="coreml", nms=True) def test_export_tflite(enabled=False): @@ -228,7 +244,7 @@ def test_export_tflite(enabled=False): """ if enabled and LINUX: model = YOLO(MODEL) - f = model.export(format='tflite') + f = model.export(format="tflite") YOLO(f)(SOURCE) @@ -240,7 +256,7 @@ def test_export_pb(enabled=False): """ if enabled and LINUX: model = YOLO(MODEL) - f = model.export(format='pb') + f = model.export(format="pb") YOLO(f)(SOURCE) @@ -251,20 +267,20 @@ def test_export_paddle(enabled=False): Note Paddle protobuf requirements conflicting with onnx protobuf requirements. """ if enabled: - YOLO(MODEL).export(format='paddle') + YOLO(MODEL).export(format="paddle") @pytest.mark.slow def test_export_ncnn(): """Test exporting the YOLO model to NCNN format.""" - f = YOLO(MODEL).export(format='ncnn') + f = YOLO(MODEL).export(format="ncnn") YOLO(f)(SOURCE) # exported model inference def test_all_model_yamls(): """Test YOLO model creation for all available YAML configurations.""" - for m in (ROOT / 'cfg' / 'models').rglob('*.yaml'): - if 'rtdetr' in m.name: + for m in (ROOT / "cfg" / "models").rglob("*.yaml"): + if "rtdetr" in m.name: if TORCH_1_9: # torch<=1.8 issue - TypeError: __init__() got an unexpected keyword argument 'batch_first' _ = RTDETR(m.name)(SOURCE, imgsz=640) # must be 640 else: @@ -274,10 +290,10 @@ def test_all_model_yamls(): def test_workflow(): """Test the complete workflow including training, validation, prediction, and exporting.""" model = YOLO(MODEL) - model.train(data='coco8.yaml', epochs=1, imgsz=32, optimizer='SGD') + model.train(data="coco8.yaml", epochs=1, imgsz=32, optimizer="SGD") model.val(imgsz=32) model.predict(SOURCE, imgsz=32) - model.export(format='onnx') # export a model to ONNX format + model.export(format="onnx") # export a model to ONNX format def test_predict_callback_and_setup(): @@ -285,40 +301,62 @@ def test_predict_callback_and_setup(): def on_predict_batch_end(predictor): """Callback function that handles operations at the end of a prediction batch.""" - path, im0s, _, _ = predictor.batch + path, im0s, _ = predictor.batch im0s = im0s if isinstance(im0s, list) else [im0s] bs = [predictor.dataset.bs for _ in range(len(path))] predictor.results = zip(predictor.results, im0s, bs) # results is List[batch_size] model = YOLO(MODEL) - model.add_callback('on_predict_batch_end', on_predict_batch_end) + model.add_callback("on_predict_batch_end", on_predict_batch_end) dataset = load_inference_source(source=SOURCE) bs = dataset.bs # noqa access predictor properties results = model.predict(dataset, stream=True, imgsz=160) # source already setup for r, im0, bs in results: - print('test_callback', im0.shape) - print('test_callback', bs) + print("test_callback", im0.shape) + print("test_callback", bs) boxes = r.boxes # Boxes object for bbox outputs print(boxes) def test_results(): """Test various result formats for the YOLO model.""" - for m in 'yolov8n-pose.pt', 'yolov8n-seg.pt', 'yolov8n.pt', 'yolov8n-cls.pt': + for m in "yolov8n-pose.pt", "yolov8n-seg.pt", "yolov8n.pt", "yolov8n-cls.pt": results = YOLO(WEIGHTS_DIR / m)([SOURCE, SOURCE], imgsz=160) for r in results: r = r.cpu().numpy() - r = r.to(device='cpu', dtype=torch.float32) - r.save_txt(txt_file=TMP / 'runs/tests/label.txt', save_conf=True) - r.save_crop(save_dir=TMP / 'runs/tests/crops/') + r = r.to(device="cpu", dtype=torch.float32) + r.save_txt(txt_file=TMP / "runs/tests/label.txt", save_conf=True) + r.save_crop(save_dir=TMP / "runs/tests/crops/") r.tojson(normalize=True) r.plot(pil=True) r.plot(conf=True, boxes=True) print(r, len(r), r.path) -@pytest.mark.skipif(not ONLINE, reason='environment is offline') +def test_labels_and_crops(): + """Test output from prediction args for saving detection labels and crops.""" + imgs = [SOURCE, ASSETS / "zidane.jpg"] + results = YOLO(WEIGHTS_DIR / "yolov8n.pt")(imgs, imgsz=160, save_txt=True, save_crop=True) + save_path = Path(results[0].save_dir) + for r in results: + im_name = Path(r.path).stem + cls_idxs = r.boxes.cls.int().tolist() + # Check label path + labels = save_path / f"labels/{im_name}.txt" + assert labels.exists() + # Check detections match label count + assert len(r.boxes.data) == len([l for l in labels.read_text().splitlines() if l]) + # Check crops path and files + crop_dirs = [p for p in (save_path / "crops").iterdir()] + crop_files = [f for p in crop_dirs for f in p.glob("*")] + # Crop directories match detections + assert all([r.names.get(c) in [d.name for d in crop_dirs] for c in cls_idxs]) + # Same number of crops as detections + assert len([f for f in crop_files if im_name in f.name]) == len(r.boxes.data) + + +@pytest.mark.skipif(not ONLINE, reason="environment is offline") def test_data_utils(): """Test utility functions in ultralytics/data/utils.py.""" from ultralytics.data.utils import HUBDatasetStats, autosplit @@ -327,25 +365,25 @@ def test_data_utils(): # from ultralytics.utils.files import WorkingDirectory # with WorkingDirectory(ROOT.parent / 'tests'): - for task in 'detect', 'segment', 'pose', 'classify': - file = Path(TASK2DATA[task]).with_suffix('.zip') # i.e. coco8.zip - download(f'https://github.com/ultralytics/hub/raw/main/example_datasets/{file}', unzip=False, dir=TMP) + for task in "detect", "segment", "pose", "classify": + file = Path(TASK2DATA[task]).with_suffix(".zip") # i.e. coco8.zip + download(f"https://github.com/ultralytics/hub/raw/main/example_datasets/{file}", unzip=False, dir=TMP) stats = HUBDatasetStats(TMP / file, task=task) stats.get_json(save=True) stats.process_images() - autosplit(TMP / 'coco8') - zip_directory(TMP / 'coco8/images/val') # zip + autosplit(TMP / "coco8") + zip_directory(TMP / "coco8/images/val") # zip -@pytest.mark.skipif(not ONLINE, reason='environment is offline') +@pytest.mark.skipif(not ONLINE, reason="environment is offline") def test_data_converter(): """Test dataset converters.""" from ultralytics.data.converter import coco80_to_coco91_class, convert_coco - file = 'instances_val2017.json' - download(f'https://github.com/ultralytics/yolov5/releases/download/v1.0/{file}', dir=TMP) - convert_coco(labels_dir=TMP, save_dir=TMP / 'yolo_labels', use_segments=True, use_keypoints=False, cls91to80=True) + file = "instances_val2017.json" + download(f"https://github.com/ultralytics/yolov5/releases/download/v1.0/{file}", dir=TMP) + convert_coco(labels_dir=TMP, save_dir=TMP / "yolo_labels", use_segments=True, use_keypoints=False, cls91to80=True) coco80_to_coco91_class() @@ -353,10 +391,12 @@ def test_data_annotator(): """Test automatic data annotation.""" from ultralytics.data.annotator import auto_annotate - auto_annotate(ASSETS, - det_model=WEIGHTS_DIR / 'yolov8n.pt', - sam_model=WEIGHTS_DIR / 'mobile_sam.pt', - output_dir=TMP / 'auto_annotate_labels') + auto_annotate( + ASSETS, + det_model=WEIGHTS_DIR / "yolov8n.pt", + sam_model=WEIGHTS_DIR / "mobile_sam.pt", + output_dir=TMP / "auto_annotate_labels", + ) def test_events(): @@ -366,7 +406,7 @@ def test_events(): events = Events() events.enabled = True cfg = copy(DEFAULT_CFG) # does not require deepcopy - cfg.mode = 'test' + cfg.mode = "test" events(cfg) @@ -375,10 +415,10 @@ def test_cfg_init(): from ultralytics.cfg import check_dict_alignment, copy_default_cfg, smart_value with contextlib.suppress(SyntaxError): - check_dict_alignment({'a': 1}, {'b': 2}) + check_dict_alignment({"a": 1}, {"b": 2}) copy_default_cfg() - (Path.cwd() / DEFAULT_CFG_PATH.name.replace('.yaml', '_copy.yaml')).unlink(missing_ok=False) - [smart_value(x) for x in ['none', 'true', 'false']] + (Path.cwd() / DEFAULT_CFG_PATH.name.replace(".yaml", "_copy.yaml")).unlink(missing_ok=False) + [smart_value(x) for x in ["none", "true", "false"]] def test_utils_init(): @@ -393,12 +433,12 @@ def test_utils_init(): def test_utils_checks(): """Test various utility checks.""" - checks.check_yolov5u_filename('yolov5n.pt') + checks.check_yolov5u_filename("yolov5n.pt") checks.git_describe(ROOT) checks.check_requirements() # check requirements.txt checks.check_imgsz([600, 600], max_dim=1) checks.check_imshow() - checks.check_version('ultralytics', '8.0.0') + checks.check_version("ultralytics", "8.0.0") checks.print_args() # checks.check_imshow(warn=True) @@ -407,7 +447,7 @@ def test_utils_benchmarks(): """Test model benchmarking.""" from ultralytics.utils.benchmarks import ProfileModels - ProfileModels(['yolov8n.yaml'], imgsz=32, min_time=1, num_timed_runs=3, num_warmup_runs=1).profile() + ProfileModels(["yolov8n.yaml"], imgsz=32, min_time=1, num_timed_runs=3, num_warmup_runs=1).profile() def test_utils_torchutils(): @@ -423,18 +463,30 @@ def test_utils_torchutils(): time_sync() -@pytest.mark.skipif(not ONLINE, reason='environment is offline') +@pytest.mark.slow +@pytest.mark.skipif(not ONLINE, reason="environment is offline") def test_utils_downloads(): """Test file download utilities.""" from ultralytics.utils.downloads import get_google_drive_file_info - get_google_drive_file_info('https://drive.google.com/file/d/1cqT-cJgANNrhIHCrEufUYhQ4RqiWG_lJ/view?usp=drive_link') + get_google_drive_file_info("https://drive.google.com/file/d/1cqT-cJgANNrhIHCrEufUYhQ4RqiWG_lJ/view?usp=drive_link") def test_utils_ops(): """Test various operations utilities.""" - from ultralytics.utils.ops import (ltwh2xywh, ltwh2xyxy, make_divisible, xywh2ltwh, xywh2xyxy, xywhn2xyxy, - xywhr2xyxyxyxy, xyxy2ltwh, xyxy2xywh, xyxy2xywhn, xyxyxyxy2xywhr) + from ultralytics.utils.ops import ( + ltwh2xywh, + ltwh2xyxy, + make_divisible, + xywh2ltwh, + xywh2xyxy, + xywhn2xyxy, + xywhr2xyxyxyxy, + xyxy2ltwh, + xyxy2xywh, + xyxy2xywhn, + xyxyxyxy2xywhr, + ) make_divisible(17, torch.tensor([8])) @@ -455,9 +507,9 @@ def test_utils_files(): file_age(SOURCE) file_date(SOURCE) - get_latest_run(ROOT / 'runs') + get_latest_run(ROOT / "runs") - path = TMP / 'path/with spaces' + path = TMP / "path/with spaces" path.mkdir(parents=True, exist_ok=True) with spaces_in_path(path) as new_path: print(new_path) @@ -471,9 +523,9 @@ def test_utils_patches_torch_save(): mock = MagicMock(side_effect=RuntimeError) - with patch('ultralytics.utils.patches._torch_save', new=mock): + with patch("ultralytics.utils.patches._torch_save", new=mock): with pytest.raises(RuntimeError): - torch_save(torch.zeros(1), TMP / 'test.pt') + torch_save(torch.zeros(1), TMP / "test.pt") assert mock.call_count == 4, "torch_save was not attempted the expected number of times" @@ -512,7 +564,7 @@ def test_nn_modules_block(): BottleneckCSP(c1, c2)(x) -@pytest.mark.skipif(not ONLINE, reason='environment is offline') +@pytest.mark.skipif(not ONLINE, reason="environment is offline") def test_hub(): """Test Ultralytics HUB functionalities.""" from ultralytics.hub import export_fmts_hub, logout @@ -520,23 +572,26 @@ def test_hub(): export_fmts_hub() logout() - smart_request('GET', 'https://github.com', progress=True) + smart_request("GET", "https://github.com", progress=True) @pytest.fixture def image(): + """Loads an image from a predefined source using OpenCV.""" return cv2.imread(str(SOURCE)) @pytest.mark.parametrize( - 'auto_augment, erasing, force_color_jitter', + "auto_augment, erasing, force_color_jitter", [ (None, 0.0, False), - ('randaugment', 0.5, True), - ('augmix', 0.2, False), - ('autoaugment', 0.0, True), ], + ("randaugment", 0.5, True), + ("augmix", 0.2, False), + ("autoaugment", 0.0, True), + ], ) def test_classify_transforms_train(image, auto_augment, erasing, force_color_jitter): + """Tests classification transforms during training with various augmentation settings.""" import torchvision.transforms as T from ultralytics.data.augment import classify_augmentations @@ -566,18 +621,25 @@ def test_classify_transforms_train(image, auto_augment, erasing, force_color_jit @pytest.mark.slow -@pytest.mark.skipif(not ONLINE, reason='environment is offline') +@pytest.mark.skipif(not ONLINE, reason="environment is offline") def test_model_tune(): """Tune YOLO model for performance.""" - YOLO('yolov8n-pose.pt').tune(data='coco8-pose.yaml', plots=False, imgsz=32, epochs=1, iterations=2, device='cpu') - YOLO('yolov8n-cls.pt').tune(data='imagenet10', plots=False, imgsz=32, epochs=1, iterations=2, device='cpu') + YOLO("yolov8n-pose.pt").tune(data="coco8-pose.yaml", plots=False, imgsz=32, epochs=1, iterations=2, device="cpu") + YOLO("yolov8n-cls.pt").tune(data="imagenet10", plots=False, imgsz=32, epochs=1, iterations=2, device="cpu") def test_model_embeddings(): """Test YOLO model embeddings.""" model_detect = YOLO(MODEL) - model_segment = YOLO(WEIGHTS_DIR / 'yolov8n-seg.pt') + model_segment = YOLO(WEIGHTS_DIR / "yolov8n-seg.pt") for batch in [SOURCE], [SOURCE, SOURCE]: # test batch size 1 and 2 assert len(model_detect.embed(source=batch, imgsz=32)) == len(batch) assert len(model_segment.embed(source=batch, imgsz=32)) == len(batch) + + +@pytest.mark.skipif(checks.IS_PYTHON_3_12, reason="YOLOWorld with CLIP is not supported in Python 3.12") +def test_yolo_world(): + model = YOLO("yolov8s-world.pt") # no YOLOv8n-world model yet + model.set_classes(["tree", "window"]) + model(ASSETS / "bus.jpg", conf=0.01) diff --git a/ultralytics/__init__.py b/ultralytics/__init__.py index 464ebd10743..2fa99db357a 100644 --- a/ultralytics/__init__.py +++ b/ultralytics/__init__.py @@ -1,9 +1,9 @@ # Ultralytics YOLO 🚀, AGPL-3.0 license -__version__ = "8.1.6" +__version__ = "8.1.35" from ultralytics.data.explorer.explorer import Explorer -from ultralytics.models import RTDETR, SAM, YOLO +from ultralytics.models import RTDETR, SAM, YOLO, YOLOWorld from ultralytics.models.fastsam import FastSAM from ultralytics.models.nas import NAS from ultralytics.utils import ASSETS, SETTINGS as settings @@ -14,6 +14,7 @@ "__version__", "ASSETS", "YOLO", + "YOLOWorld", "NAS", "SAM", "FastSAM", diff --git a/ultralytics/cfg/__init__.py b/ultralytics/cfg/__init__.py index 6038baf0bb2..4dab8102dc2 100644 --- a/ultralytics/cfg/__init__.py +++ b/ultralytics/cfg/__init__.py @@ -30,8 +30,8 @@ ) # Define valid tasks and modes -MODES = "train", "val", "predict", "export", "track", "benchmark" -TASKS = "detect", "segment", "classify", "pose", "obb" +MODES = {"train", "val", "predict", "export", "track", "benchmark"} +TASKS = {"detect", "segment", "classify", "pose", "obb"} TASK2DATA = { "detect": "coco8.yaml", "segment": "coco8-seg.yaml", @@ -93,8 +93,8 @@ """ # Define keys for arg type checks -CFG_FLOAT_KEYS = "warmup_epochs", "box", "cls", "dfl", "degrees", "shear", "time" -CFG_FRACTION_KEYS = ( +CFG_FLOAT_KEYS = {"warmup_epochs", "box", "cls", "dfl", "degrees", "shear", "time"} +CFG_FRACTION_KEYS = { "dropout", "iou", "lr0", @@ -112,14 +112,15 @@ "perspective", "flipud", "fliplr", + "bgr", "mosaic", "mixup", "copy_paste", "conf", "iou", "fraction", -) # fraction floats 0.0 - 1.0 -CFG_INT_KEYS = ( +} # fraction floats 0.0 - 1.0 +CFG_INT_KEYS = { "epochs", "patience", "batch", @@ -133,8 +134,8 @@ "workspace", "nbs", "save_period", -) -CFG_BOOL_KEYS = ( +} +CFG_BOOL_KEYS = { "save", "exist_ok", "verbose", @@ -169,7 +170,7 @@ "nms", "profile", "multi_scale", -) +} def cfg2dict(cfg): @@ -219,33 +220,46 @@ def get_cfg(cfg: Union[str, Path, Dict, SimpleNamespace] = DEFAULT_CFG_DICT, ove LOGGER.warning(f"WARNING ⚠️ 'name=model' automatically updated to 'name={cfg['name']}'.") # Type and Value checks + check_cfg(cfg) + + # Return instance + return IterableSimpleNamespace(**cfg) + + +def check_cfg(cfg, hard=True): + """Check Ultralytics configuration argument types and values.""" for k, v in cfg.items(): if v is not None: # None values may be from optional args if k in CFG_FLOAT_KEYS and not isinstance(v, (int, float)): - raise TypeError( - f"'{k}={v}' is of invalid type {type(v).__name__}. " - f"Valid '{k}' types are int (i.e. '{k}=0') or float (i.e. '{k}=0.5')" - ) - elif k in CFG_FRACTION_KEYS: - if not isinstance(v, (int, float)): + if hard: raise TypeError( f"'{k}={v}' is of invalid type {type(v).__name__}. " f"Valid '{k}' types are int (i.e. '{k}=0') or float (i.e. '{k}=0.5')" ) + cfg[k] = float(v) + elif k in CFG_FRACTION_KEYS: + if not isinstance(v, (int, float)): + if hard: + raise TypeError( + f"'{k}={v}' is of invalid type {type(v).__name__}. " + f"Valid '{k}' types are int (i.e. '{k}=0') or float (i.e. '{k}=0.5')" + ) + cfg[k] = v = float(v) if not (0.0 <= v <= 1.0): raise ValueError(f"'{k}={v}' is an invalid value. " f"Valid '{k}' values are between 0.0 and 1.0.") elif k in CFG_INT_KEYS and not isinstance(v, int): - raise TypeError( - f"'{k}={v}' is of invalid type {type(v).__name__}. " f"'{k}' must be an int (i.e. '{k}=8')" - ) + if hard: + raise TypeError( + f"'{k}={v}' is of invalid type {type(v).__name__}. " f"'{k}' must be an int (i.e. '{k}=8')" + ) + cfg[k] = int(v) elif k in CFG_BOOL_KEYS and not isinstance(v, bool): - raise TypeError( - f"'{k}={v}' is of invalid type {type(v).__name__}. " - f"'{k}' must be a bool (i.e. '{k}=True' or '{k}=False')" - ) - - # Return instance - return IterableSimpleNamespace(**cfg) + if hard: + raise TypeError( + f"'{k}={v}' is of invalid type {type(v).__name__}. " + f"'{k}' must be a bool (i.e. '{k}=True' or '{k}=False')" + ) + cfg[k] = bool(v) def get_save_dir(args, name=None): @@ -317,7 +331,7 @@ def merge_equals_args(args: List[str]) -> List[str]: args (List[str]): A list of strings where each element is an argument. Returns: - List[str]: A list of strings where the arguments around isolated '=' are merged. + (List[str]): A list of strings where the arguments around isolated '=' are merged. """ new_args = [] for i, arg in enumerate(args): @@ -396,7 +410,7 @@ def handle_yolo_settings(args: List[str]) -> None: def handle_explorer(): """Open the Ultralytics Explorer GUI.""" checks.check_requirements("streamlit") - LOGGER.info(f"💡 Loading Explorer dashboard...") + LOGGER.info("💡 Loading Explorer dashboard...") subprocess.run(["streamlit", "run", ROOT / "data/explorer/gui/dash.py", "--server.maxMessageSize", "2048"]) @@ -464,10 +478,10 @@ def entrypoint(debug=""): overrides = {} # basic overrides, i.e. imgsz=320 for a in merge_equals_args(args): # merge spaces around '=' sign if a.startswith("--"): - LOGGER.warning(f"WARNING ⚠️ '{a}' does not require leading dashes '--', updating to '{a[2:]}'.") + LOGGER.warning(f"WARNING ⚠️ argument '{a}' does not require leading dashes '--', updating to '{a[2:]}'.") a = a[2:] if a.endswith(","): - LOGGER.warning(f"WARNING ⚠️ '{a}' does not require trailing comma ',', updating to '{a[:-1]}'.") + LOGGER.warning(f"WARNING ⚠️ argument '{a}' does not require trailing comma ',', updating to '{a[:-1]}'.") a = a[:-1] if "=" in a: try: @@ -504,7 +518,7 @@ def entrypoint(debug=""): mode = overrides.get("mode") if mode is None: mode = DEFAULT_CFG.mode or "predict" - LOGGER.warning(f"WARNING ⚠️ 'mode' is missing. Valid modes are {MODES}. Using default 'mode={mode}'.") + LOGGER.warning(f"WARNING ⚠️ 'mode' argument is missing. Valid modes are {MODES}. Using default 'mode={mode}'.") elif mode not in MODES: raise ValueError(f"Invalid 'mode={mode}'. Valid modes are {MODES}.\n{CLI_HELP_MSG}") @@ -520,7 +534,7 @@ def entrypoint(debug=""): model = overrides.pop("model", DEFAULT_CFG.model) if model is None: model = "yolov8n.pt" - LOGGER.warning(f"WARNING ⚠️ 'model' is missing. Using default 'model={model}'.") + LOGGER.warning(f"WARNING ⚠️ 'model' argument is missing. Using default 'model={model}'.") overrides["model"] = model stem = Path(model).stem.lower() if "rtdetr" in stem: # guess architecture @@ -554,15 +568,15 @@ def entrypoint(debug=""): # Mode if mode in ("predict", "track") and "source" not in overrides: overrides["source"] = DEFAULT_CFG.source or ASSETS - LOGGER.warning(f"WARNING ⚠️ 'source' is missing. Using default 'source={overrides['source']}'.") + LOGGER.warning(f"WARNING ⚠️ 'source' argument is missing. Using default 'source={overrides['source']}'.") elif mode in ("train", "val"): if "data" not in overrides and "resume" not in overrides: overrides["data"] = DEFAULT_CFG.data or TASK2DATA.get(task or DEFAULT_CFG.task, DEFAULT_CFG.data) - LOGGER.warning(f"WARNING ⚠️ 'data' is missing. Using default 'data={overrides['data']}'.") + LOGGER.warning(f"WARNING ⚠️ 'data' argument is missing. Using default 'data={overrides['data']}'.") elif mode == "export": if "format" not in overrides: overrides["format"] = DEFAULT_CFG.format or "torchscript" - LOGGER.warning(f"WARNING ⚠️ 'format' is missing. Using default 'format={overrides['format']}'.") + LOGGER.warning(f"WARNING ⚠️ 'format' argument is missing. Using default 'format={overrides['format']}'.") # Run command in python getattr(model, mode)(**overrides) # default args from model diff --git a/ultralytics/cfg/datasets/african-wildlife.yaml b/ultralytics/cfg/datasets/african-wildlife.yaml new file mode 100644 index 00000000000..af8af366fdd --- /dev/null +++ b/ultralytics/cfg/datasets/african-wildlife.yaml @@ -0,0 +1,24 @@ +# Ultralytics YOLO 🚀, AGPL-3.0 license +# African-wildlife dataset by Ultralytics +# Documentation: https://docs.ultralytics.com/datasets/detect/african-wildlife/ +# Example usage: yolo train data=african-wildlife.yaml +# parent +# ├── ultralytics +# └── datasets +# └── african-wildlife ← downloads here (100 MB) + +# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..] +path: ../datasets/african-wildlife # dataset root dir +train: train/images # train images (relative to 'path') 1052 images +val: valid/images # val images (relative to 'path') 225 images +test: test/images # test images (relative to 'path') 227 images + +# Classes +names: + 0: buffalo + 1: elephant + 2: rhino + 3: zebra + +# Download script/URL (optional) +download: https://ultralytics.com/assets/african-wildlife.zip diff --git a/ultralytics/cfg/datasets/brain-tumor.yaml b/ultralytics/cfg/datasets/brain-tumor.yaml new file mode 100644 index 00000000000..be6109820b5 --- /dev/null +++ b/ultralytics/cfg/datasets/brain-tumor.yaml @@ -0,0 +1,22 @@ +# Ultralytics YOLO 🚀, AGPL-3.0 license +# Brain-tumor dataset by Ultralytics +# Documentation: https://docs.ultralytics.com/datasets/detect/brain-tumor/ +# Example usage: yolo train data=brain-tumor.yaml +# parent +# ├── ultralytics +# └── datasets +# └── brain-tumor ← downloads here (4.05 MB) + +# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..] +path: ../datasets/brain-tumor # dataset root dir +train: train/images # train images (relative to 'path') 893 images +val: valid/images # val images (relative to 'path') 223 images +test: # test images (relative to 'path') + +# Classes +names: + 0: negative + 1: positive + +# Download script/URL (optional) +download: https://ultralytics.com/assets/brain-tumor.zip diff --git a/ultralytics/cfg/default.yaml b/ultralytics/cfg/default.yaml index fa4b45a71c6..2e165845332 100644 --- a/ultralytics/cfg/default.yaml +++ b/ultralytics/cfg/default.yaml @@ -9,7 +9,7 @@ model: # (str, optional) path to model file, i.e. yolov8n.pt, yolov8n.yaml data: # (str, optional) path to data file, i.e. coco128.yaml epochs: 100 # (int) number of epochs to train for time: # (float, optional) number of hours to train for, overrides epochs if supplied -patience: 50 # (int) epochs to wait for no observable improvement for early stopping of training +patience: 100 # (int) epochs to wait for no observable improvement for early stopping of training batch: 16 # (int) number of images per batch (-1 for AutoBatch) imgsz: 640 # (int | list) input images size as int for train and val modes, or list[w,h] for predict and export modes save: True # (bool) save train checkpoints and predict results @@ -34,7 +34,7 @@ amp: True # (bool) Automatic Mixed Precision (AMP) training, choices=[True, Fals fraction: 1.0 # (float) dataset fraction to train on (default is 1.0, all images in train set) profile: False # (bool) profile ONNX and TensorRT speeds during training for loggers freeze: None # (int | list, optional) freeze first n layers, or freeze list of layer indices during training -multi_scale: False # (bool) Whether to use multi-scale during training +multi_scale: False # (bool) Whether to use multiscale during training # Segmentation overlap_mask: True # (bool) masks should overlap during training (segment train only) mask_ratio: 4 # (int) mask downsample ratio (segment train only) @@ -111,6 +111,7 @@ shear: 0.0 # (float) image shear (+/- deg) perspective: 0.0 # (float) image perspective (+/- fraction), range 0-0.001 flipud: 0.0 # (float) image flip up-down (probability) fliplr: 0.5 # (float) image flip left-right (probability) +bgr: 0.0 # (float) image channel BGR (probability) mosaic: 1.0 # (float) image mosaic (probability) mixup: 0.0 # (float) image mixup (probability) copy_paste: 0.0 # (float) segment copy-paste (probability) diff --git a/ultralytics/cfg/models/v8/yolov8-world.yaml b/ultralytics/cfg/models/v8/yolov8-world.yaml new file mode 100644 index 00000000000..c21a7f00205 --- /dev/null +++ b/ultralytics/cfg/models/v8/yolov8-world.yaml @@ -0,0 +1,48 @@ +# Ultralytics YOLO 🚀, AGPL-3.0 license +# YOLOv8-World object detection model with P3-P5 outputs. For details see https://docs.ultralytics.com/tasks/detect + +# Parameters +nc: 80 # number of classes +scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n' + # [depth, width, max_channels] + n: [0.33, 0.25, 1024] # YOLOv8n summary: 225 layers, 3157200 parameters, 3157184 gradients, 8.9 GFLOPs + s: [0.33, 0.50, 1024] # YOLOv8s summary: 225 layers, 11166560 parameters, 11166544 gradients, 28.8 GFLOPs + m: [0.67, 0.75, 768] # YOLOv8m summary: 295 layers, 25902640 parameters, 25902624 gradients, 79.3 GFLOPs + l: [1.00, 1.00, 512] # YOLOv8l summary: 365 layers, 43691520 parameters, 43691504 gradients, 165.7 GFLOPs + x: [1.00, 1.25, 512] # YOLOv8x summary: 365 layers, 68229648 parameters, 68229632 gradients, 258.5 GFLOPs + +# YOLOv8.0n backbone +backbone: + # [from, repeats, module, args] + - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2 + - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4 + - [-1, 3, C2f, [128, True]] + - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8 + - [-1, 6, C2f, [256, True]] + - [-1, 1, Conv, [512, 3, 2]] # 5-P4/16 + - [-1, 6, C2f, [512, True]] + - [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32 + - [-1, 3, C2f, [1024, True]] + - [-1, 1, SPPF, [1024, 5]] # 9 + +# YOLOv8.0n head +head: + - [-1, 1, nn.Upsample, [None, 2, "nearest"]] + - [[-1, 6], 1, Concat, [1]] # cat backbone P4 + - [-1, 3, C2fAttn, [512, 256, 8]] # 12 + + - [-1, 1, nn.Upsample, [None, 2, "nearest"]] + - [[-1, 4], 1, Concat, [1]] # cat backbone P3 + - [-1, 3, C2fAttn, [256, 128, 4]] # 15 (P3/8-small) + + - [[15, 12, 9], 1, ImagePoolingAttn, [256]] # 16 (P3/8-small) + + - [15, 1, Conv, [256, 3, 2]] + - [[-1, 12], 1, Concat, [1]] # cat head P4 + - [-1, 3, C2fAttn, [512, 256, 8]] # 19 (P4/16-medium) + + - [-1, 1, Conv, [512, 3, 2]] + - [[-1, 9], 1, Concat, [1]] # cat head P5 + - [-1, 3, C2fAttn, [1024, 512, 16]] # 22 (P5/32-large) + + - [[15, 19, 22], 1, WorldDetect, [nc, 512, False]] # Detect(P3, P4, P5) diff --git a/ultralytics/cfg/models/v8/yolov8-worldv2.yaml b/ultralytics/cfg/models/v8/yolov8-worldv2.yaml new file mode 100644 index 00000000000..322b97d4b98 --- /dev/null +++ b/ultralytics/cfg/models/v8/yolov8-worldv2.yaml @@ -0,0 +1,46 @@ +# Ultralytics YOLO 🚀, AGPL-3.0 license +# YOLOv8-World-v2 object detection model with P3-P5 outputs. For details see https://docs.ultralytics.com/tasks/detect + +# Parameters +nc: 80 # number of classes +scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n' + # [depth, width, max_channels] + n: [0.33, 0.25, 1024] # YOLOv8n summary: 225 layers, 3157200 parameters, 3157184 gradients, 8.9 GFLOPs + s: [0.33, 0.50, 1024] # YOLOv8s summary: 225 layers, 11166560 parameters, 11166544 gradients, 28.8 GFLOPs + m: [0.67, 0.75, 768] # YOLOv8m summary: 295 layers, 25902640 parameters, 25902624 gradients, 79.3 GFLOPs + l: [1.00, 1.00, 512] # YOLOv8l summary: 365 layers, 43691520 parameters, 43691504 gradients, 165.7 GFLOPs + x: [1.00, 1.25, 512] # YOLOv8x summary: 365 layers, 68229648 parameters, 68229632 gradients, 258.5 GFLOPs + +# YOLOv8.0n backbone +backbone: + # [from, repeats, module, args] + - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2 + - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4 + - [-1, 3, C2f, [128, True]] + - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8 + - [-1, 6, C2f, [256, True]] + - [-1, 1, Conv, [512, 3, 2]] # 5-P4/16 + - [-1, 6, C2f, [512, True]] + - [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32 + - [-1, 3, C2f, [1024, True]] + - [-1, 1, SPPF, [1024, 5]] # 9 + +# YOLOv8.0n head +head: + - [-1, 1, nn.Upsample, [None, 2, "nearest"]] + - [[-1, 6], 1, Concat, [1]] # cat backbone P4 + - [-1, 3, C2fAttn, [512, 256, 8]] # 12 + + - [-1, 1, nn.Upsample, [None, 2, "nearest"]] + - [[-1, 4], 1, Concat, [1]] # cat backbone P3 + - [-1, 3, C2fAttn, [256, 128, 4]] # 15 (P3/8-small) + + - [15, 1, Conv, [256, 3, 2]] + - [[-1, 12], 1, Concat, [1]] # cat head P4 + - [-1, 3, C2fAttn, [512, 256, 8]] # 18 (P4/16-medium) + + - [-1, 1, Conv, [512, 3, 2]] + - [[-1, 9], 1, Concat, [1]] # cat head P5 + - [-1, 3, C2fAttn, [1024, 512, 16]] # 21 (P5/32-large) + + - [[15, 18, 21], 1, WorldDetect, [nc, 512, True]] # Detect(P3, P4, P5) diff --git a/ultralytics/cfg/models/v9/yolov9c.yaml b/ultralytics/cfg/models/v9/yolov9c.yaml new file mode 100644 index 00000000000..66c02d64719 --- /dev/null +++ b/ultralytics/cfg/models/v9/yolov9c.yaml @@ -0,0 +1,36 @@ +# YOLOv9 + +# parameters +nc: 80 # number of classes + +# gelan backbone +backbone: + - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2 + - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4 + - [-1, 1, RepNCSPELAN4, [256, 128, 64, 1]] # 2 + - [-1, 1, ADown, [256]] # 3-P3/8 + - [-1, 1, RepNCSPELAN4, [512, 256, 128, 1]] # 4 + - [-1, 1, ADown, [512]] # 5-P4/16 + - [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]] # 6 + - [-1, 1, ADown, [512]] # 7-P5/32 + - [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]] # 8 + - [-1, 1, SPPELAN, [512, 256]] # 9 + +head: + - [-1, 1, nn.Upsample, [None, 2, 'nearest']] + - [[-1, 6], 1, Concat, [1]] # cat backbone P4 + - [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]] # 12 + + - [-1, 1, nn.Upsample, [None, 2, 'nearest']] + - [[-1, 4], 1, Concat, [1]] # cat backbone P3 + - [-1, 1, RepNCSPELAN4, [256, 256, 128, 1]] # 15 (P3/8-small) + + - [-1, 1, ADown, [256]] + - [[-1, 12], 1, Concat, [1]] # cat head P4 + - [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]] # 18 (P4/16-medium) + + - [-1, 1, ADown, [512]] + - [[-1, 9], 1, Concat, [1]] # cat head P5 + - [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]] # 21 (P5/32-large) + + - [[15, 18, 21], 1, Detect, [nc]] # DDetect(P3, P4, P5) diff --git a/ultralytics/cfg/models/v9/yolov9e.yaml b/ultralytics/cfg/models/v9/yolov9e.yaml new file mode 100644 index 00000000000..8e15a42bb94 --- /dev/null +++ b/ultralytics/cfg/models/v9/yolov9e.yaml @@ -0,0 +1,60 @@ +# YOLOv9 + +# parameters +nc: 80 # number of classes + +# gelan backbone +backbone: + - [-1, 1, Silence, []] + - [-1, 1, Conv, [64, 3, 2]] # 1-P1/2 + - [-1, 1, Conv, [128, 3, 2]] # 2-P2/4 + - [-1, 1, RepNCSPELAN4, [256, 128, 64, 2]] # 3 + - [-1, 1, ADown, [256]] # 4-P3/8 + - [-1, 1, RepNCSPELAN4, [512, 256, 128, 2]] # 5 + - [-1, 1, ADown, [512]] # 6-P4/16 + - [-1, 1, RepNCSPELAN4, [1024, 512, 256, 2]] # 7 + - [-1, 1, ADown, [1024]] # 8-P5/32 + - [-1, 1, RepNCSPELAN4, [1024, 512, 256, 2]] # 9 + + - [1, 1, CBLinear, [[64]]] # 10 + - [3, 1, CBLinear, [[64, 128]]] # 11 + - [5, 1, CBLinear, [[64, 128, 256]]] # 12 + - [7, 1, CBLinear, [[64, 128, 256, 512]]] # 13 + - [9, 1, CBLinear, [[64, 128, 256, 512, 1024]]] # 14 + + - [0, 1, Conv, [64, 3, 2]] # 15-P1/2 + - [[10, 11, 12, 13, 14, -1], 1, CBFuse, [[0, 0, 0, 0, 0]]] # 16 + - [-1, 1, Conv, [128, 3, 2]] # 17-P2/4 + - [[11, 12, 13, 14, -1], 1, CBFuse, [[1, 1, 1, 1]]] # 18 + - [-1, 1, RepNCSPELAN4, [256, 128, 64, 2]] # 19 + - [-1, 1, ADown, [256]] # 20-P3/8 + - [[12, 13, 14, -1], 1, CBFuse, [[2, 2, 2]]] # 21 + - [-1, 1, RepNCSPELAN4, [512, 256, 128, 2]] # 22 + - [-1, 1, ADown, [512]] # 23-P4/16 + - [[13, 14, -1], 1, CBFuse, [[3, 3]]] # 24 + - [-1, 1, RepNCSPELAN4, [1024, 512, 256, 2]] # 25 + - [-1, 1, ADown, [1024]] # 26-P5/32 + - [[14, -1], 1, CBFuse, [[4]]] # 27 + - [-1, 1, RepNCSPELAN4, [1024, 512, 256, 2]] # 28 + - [-1, 1, SPPELAN, [512, 256]] # 29 + +# gelan head +head: + - [-1, 1, nn.Upsample, [None, 2, 'nearest']] + - [[-1, 25], 1, Concat, [1]] # cat backbone P4 + - [-1, 1, RepNCSPELAN4, [512, 512, 256, 2]] # 32 + + - [-1, 1, nn.Upsample, [None, 2, 'nearest']] + - [[-1, 22], 1, Concat, [1]] # cat backbone P3 + - [-1, 1, RepNCSPELAN4, [256, 256, 128, 2]] # 35 (P3/8-small) + + - [-1, 1, ADown, [256]] + - [[-1, 32], 1, Concat, [1]] # cat head P4 + - [-1, 1, RepNCSPELAN4, [512, 512, 256, 2]] # 38 (P4/16-medium) + + - [-1, 1, ADown, [512]] + - [[-1, 29], 1, Concat, [1]] # cat head P5 + - [-1, 1, RepNCSPELAN4, [512, 1024, 512, 2]] # 41 (P5/32-large) + + # detect + - [[35, 38, 41], 1, Detect, [nc]] # Detect(P3, P4, P5) diff --git a/ultralytics/data/augment.py b/ultralytics/data/augment.py index 99bdd5a036d..b12c2b2c4fe 100644 --- a/ultralytics/data/augment.py +++ b/ultralytics/data/augment.py @@ -833,7 +833,7 @@ def __init__(self, p=1.0): try: import albumentations as A - #check_version(A.__version__, "1.0.3", hard=True) # version requirement + # check_version(A.__version__, "1.0.3", hard=True) # version requirement # Transforms T = [ @@ -846,9 +846,12 @@ def __init__(self, p=1.0): A.Emboss(p=0.02, alpha=(0.02, 0.1), strength=(0.05, 0.2)), A.MultiplicativeNoise(p=0.02, multiplier=(0.95, 1.05)), A.Rotate(p=0.02, limit=5), - A.ChromaticAberration(primary_distortion_limit=(0.01, 0.05), - secondary_distortion_limit=(0.01, 0.07), - mode='random', p=0.02), + A.ChromaticAberration( + primary_distortion_limit=(0.01, 0.05), + secondary_distortion_limit=(0.01, 0.07), + mode="random", + p=0.02, + ), A.ImageCompression(quality_lower=75, p=0.0), ] self.transform = A.Compose(T, bbox_params=A.BboxParams(format="yolo", label_fields=["class_labels"])) @@ -892,6 +895,7 @@ class Format: mask_ratio (int): Downsample ratio for masks. Default is 4. mask_overlap (bool): Whether to overlap masks. Default is True. batch_idx (bool): Keep batch indexes. Default is True. + bgr (float): The probability to return BGR images. Default is 0.0. """ def __init__( @@ -904,6 +908,7 @@ def __init__( mask_ratio=4, mask_overlap=True, batch_idx=True, + bgr=0.0, ): """Initializes the Format class with given parameters.""" self.bbox_format = bbox_format @@ -914,6 +919,7 @@ def __init__( self.mask_ratio = mask_ratio self.mask_overlap = mask_overlap self.batch_idx = batch_idx # keep the batch indexes + self.bgr = bgr def __call__(self, labels): """Return formatted image, classes, bounding boxes & keypoints to be used by 'collate_fn'.""" @@ -954,7 +960,8 @@ def _format_img(self, img): """Format the image for YOLO from Numpy array to PyTorch tensor.""" if len(img.shape) < 3: img = np.expand_dims(img, -1) - img = np.ascontiguousarray(img.transpose(2, 0, 1)[::-1]) + img = img.transpose(2, 0, 1) + img = np.ascontiguousarray(img[::-1] if random.uniform(0, 1) > self.bgr else img) img = torch.from_numpy(img) return img @@ -1140,7 +1147,7 @@ def classify_augmentations( f'"augmix", "autoaugment" or None' ) - #if not disable_color_jitter: + # if not disable_color_jitter: secondary_tfl += [T.ColorJitter(brightness=hsv_v, contrast=hsv_v, saturation=hsv_s, hue=hsv_h)] final_tfl = [ @@ -1152,35 +1159,38 @@ def classify_augmentations( import albumentations as A # Transforms - albumentations_transform = A.Compose([ - A.ISONoise(p=0.1, intensity=(0.02, 0.1)), - A.ToGray(p=0.02), - A.CLAHE(p=0.1, clip_limit=0.5), - A.MotionBlur(p=0.1, blur_limit=3), - A.GaussianBlur(p=1, blur_limit=(3, 5)), - A.RandomToneCurve(p=0.1, scale=0.05), - A.Sharpen(p=0.1, alpha=(0.02, 0.1), lightness=(0.8, 1.0)), - A.Emboss(p=0.1, alpha=(0.02, 0.1), strength=(0.05, 0.2)), - A.MultiplicativeNoise(p=0.1, multiplier=(0.95, 1.05)), - A.Rotate(p=0.1, limit=10, border_mode=cv2.BORDER_CONSTANT), - A.ChromaticAberration(primary_distortion_limit=(0.01, 0.05), - secondary_distortion_limit=(0.01, 0.07), - mode='random', p=0.1), - A.RGBShift(p=0.5, r_shift_limit=10, g_shift_limit=10, b_shift_limit=10), - A.RingingOvershoot(p=0.1, blur_limit=(5, 11)), - A.OpticalDistortion(p=0.1, distort_limit=0.1, shift_limit=0.1, border_mode=cv2.BORDER_CONSTANT), - A.GridDistortion(p=0.1, num_steps=5, distort_limit=0.3, border_mode=cv2.BORDER_CONSTANT), - A.Perspective(p=0.1, scale=(0.05, 0.1)), - A.PiecewiseAffine(p=0.1, scale=(0.01, 0.015)), - A.ImageCompression(quality_lower=75, p=0.0), - ]) - - rgb_check = lambda image: image.convert('RGB') if image.mode != 'RGB' else image - - album_tfl = [T.Lambda(lambda image: albumentations_transform(image=np.asarray(rgb_check(image)))['image'])] + albumentations_transform = A.Compose( + [ + A.ISONoise(p=0.1, intensity=(0.02, 0.1)), + A.ToGray(p=0.02), + A.CLAHE(p=0.1, clip_limit=0.5), + A.MotionBlur(p=0.1, blur_limit=3), + A.GaussianBlur(p=1, blur_limit=(3, 5)), + A.RandomToneCurve(p=0.1, scale=0.05), + A.Sharpen(p=0.1, alpha=(0.02, 0.1), lightness=(0.8, 1.0)), + A.Emboss(p=0.1, alpha=(0.02, 0.1), strength=(0.05, 0.2)), + A.MultiplicativeNoise(p=0.1, multiplier=(0.95, 1.05)), + A.Rotate(p=0.1, limit=10, border_mode=cv2.BORDER_CONSTANT), + A.ChromaticAberration( + primary_distortion_limit=(0.01, 0.05), secondary_distortion_limit=(0.01, 0.07), mode="random", p=0.1 + ), + A.RGBShift(p=0.5, r_shift_limit=10, g_shift_limit=10, b_shift_limit=10), + A.RingingOvershoot(p=0.1, blur_limit=(5, 11)), + A.OpticalDistortion(p=0.1, distort_limit=0.1, shift_limit=0.1, border_mode=cv2.BORDER_CONSTANT), + A.GridDistortion(p=0.1, num_steps=5, distort_limit=0.3, border_mode=cv2.BORDER_CONSTANT), + A.Perspective(p=0.1, scale=(0.05, 0.1)), + A.PiecewiseAffine(p=0.1, scale=(0.01, 0.015)), + A.ImageCompression(quality_lower=75, p=0.0), + ] + ) + + rgb_check = lambda image: image.convert("RGB") if image.mode != "RGB" else image + + album_tfl = [T.Lambda(lambda image: albumentations_transform(image=np.asarray(rgb_check(image)))["image"])] return T.Compose(primary_tfl + secondary_tfl + album_tfl + final_tfl) + # NOTE: keep this class for backward compatibility class ClassifyLetterBox: """ diff --git a/ultralytics/data/base.py b/ultralytics/data/base.py index ddfce6eed5e..6af8d3cc4b0 100644 --- a/ultralytics/data/base.py +++ b/ultralytics/data/base.py @@ -120,7 +120,9 @@ def get_img_files(self, img_path): except Exception as e: raise FileNotFoundError(f"{self.prefix}Error loading data from {img_path}\n{HELP_URL}") from e if self.fraction < 1: - im_files = im_files[: round(len(im_files) * self.fraction)] + # im_files = im_files[: round(len(im_files) * self.fraction)] + num_elements_to_select = round(len(im_files) * self.fraction) + im_files = random.sample(im_files, num_elements_to_select) return im_files def update_labels(self, include_class: Optional[list]): diff --git a/ultralytics/data/build.py b/ultralytics/data/build.py index c441ee76213..6bfb48f3390 100644 --- a/ultralytics/data/build.py +++ b/ultralytics/data/build.py @@ -11,7 +11,7 @@ from ultralytics.data.loaders import ( LOADERS, - LoadImages, + LoadImagesAndVideos, LoadPilAndNumpy, LoadScreenshots, LoadStreams, @@ -129,7 +129,7 @@ def check_source(source): webcam, screenshot, from_img, in_memory, tensor = False, False, False, False, False if isinstance(source, (str, int, Path)): # int for local usb camera source = str(source) - is_file = Path(source).suffix[1:] in (IMG_FORMATS + VID_FORMATS) + is_file = Path(source).suffix[1:] in (IMG_FORMATS | VID_FORMATS) is_url = source.lower().startswith(("https://", "http://", "rtsp://", "rtmp://", "tcp://")) webcam = source.isnumeric() or source.endswith(".streams") or (is_url and not is_file) screenshot = source.lower() == "screen" @@ -150,34 +150,35 @@ def check_source(source): return source, webcam, screenshot, from_img, in_memory, tensor -def load_inference_source(source=None, vid_stride=1, buffer=False): +def load_inference_source(source=None, batch=1, vid_stride=1, buffer=False): """ Loads an inference source for object detection and applies necessary transformations. Args: source (str, Path, Tensor, PIL.Image, np.ndarray): The input source for inference. + batch (int, optional): Batch size for dataloaders. Default is 1. vid_stride (int, optional): The frame interval for video sources. Default is 1. buffer (bool, optional): Determined whether stream frames will be buffered. Default is False. Returns: dataset (Dataset): A dataset object for the specified input source. """ - source, webcam, screenshot, from_img, in_memory, tensor = check_source(source) - source_type = source.source_type if in_memory else SourceTypes(webcam, screenshot, from_img, tensor) + source, stream, screenshot, from_img, in_memory, tensor = check_source(source) + source_type = source.source_type if in_memory else SourceTypes(stream, screenshot, from_img, tensor) # Dataloader if tensor: dataset = LoadTensor(source) elif in_memory: dataset = source - elif webcam: + elif stream: dataset = LoadStreams(source, vid_stride=vid_stride, buffer=buffer) elif screenshot: dataset = LoadScreenshots(source) elif from_img: dataset = LoadPilAndNumpy(source) else: - dataset = LoadImages(source, vid_stride=vid_stride) + dataset = LoadImagesAndVideos(source, batch=batch, vid_stride=vid_stride) # Attach source types to the dataset setattr(dataset, "source_type", source_type) diff --git a/ultralytics/data/converter.py b/ultralytics/data/converter.py index 0d71b76a09d..eff4dac162c 100644 --- a/ultralytics/data/converter.py +++ b/ultralytics/data/converter.py @@ -336,6 +336,7 @@ def convert_dota_to_yolo_obb(dota_root_path: str): Notes: The directory structure assumed for the DOTA dataset: + - DOTA ├─ images │ ├─ train @@ -345,6 +346,7 @@ def convert_dota_to_yolo_obb(dota_root_path: str): └─ val_original After execution, the function will organize the labels into: + - DOTA └─ labels ├─ train @@ -416,8 +418,8 @@ def min_index(arr1, arr2): Find a pair of indexes with the shortest distance between two arrays of 2D points. Args: - arr1 (np.array): A NumPy array of shape (N, 2) representing N 2D points. - arr2 (np.array): A NumPy array of shape (M, 2) representing M 2D points. + arr1 (np.ndarray): A NumPy array of shape (N, 2) representing N 2D points. + arr2 (np.ndarray): A NumPy array of shape (M, 2) representing M 2D points. Returns: (tuple): A tuple containing the indexes of the points with the shortest distance in arr1 and arr2 respectively. @@ -489,14 +491,15 @@ def yolo_bbox2segment(im_dir, save_dir=None, sam_model="sam_b.pt"): Notes: The input directory structure assumed for dataset: + - im_dir ├─ 001.jpg ├─ .. - ├─ NNN.jpg + └─ NNN.jpg - labels ├─ 001.txt ├─ .. - ├─ NNN.txt + └─ NNN.txt """ from ultralytics.data import YOLODataset from ultralytics.utils.ops import xywh2xyxy diff --git a/ultralytics/data/dataset.py b/ultralytics/data/dataset.py index aecfc2a4ba7..42b7cc1d86a 100644 --- a/ultralytics/data/dataset.py +++ b/ultralytics/data/dataset.py @@ -46,7 +46,8 @@ def cache_labels(self, path=Path("./labels.cache")): Cache dataset labels, check images and read shapes. Args: - path (Path): path where to save the cache file (default: Path('./labels.cache')). + path (Path): Path where to save the cache file. Default is Path('./labels.cache'). + Returns: (dict): labels. """ @@ -166,6 +167,7 @@ def build_transforms(self, hyp=None): batch_idx=True, mask_ratio=hyp.mask_ratio, mask_overlap=hyp.overlap_mask, + bgr=hyp.bgr if self.augment else 0.0, # only affect training. ) ) return transforms @@ -178,9 +180,13 @@ def close_mosaic(self, hyp): self.transforms = self.build_transforms(hyp) def update_labels_info(self, label): - """Custom your label format here.""" - # NOTE: cls is not with bboxes now, classification and semantic segmentation need an independent cls label - # We can make it also support classification and semantic segmentation by add or remove some dict keys there. + """ + Custom your label format here. + + Note: + cls is not with bboxes now, classification and semantic segmentation need an independent cls label + Can also support classification and semantic segmentation by adding or removing dict keys there. + """ bboxes = label.pop("bboxes") segments = label.pop("segments", []) keypoints = label.pop("keypoints", None) @@ -221,35 +227,42 @@ def collate_fn(batch): # Classification dataloaders ------------------------------------------------------------------------------------------- class ClassificationDataset(torchvision.datasets.ImageFolder): """ - YOLO Classification Dataset. + Extends torchvision ImageFolder to support YOLO classification tasks, offering functionalities like image + augmentation, caching, and verification. It's designed to efficiently handle large datasets for training deep + learning models, with optional image transformations and caching mechanisms to speed up training. - Args: - root (str): Dataset path. + This class allows for augmentations using both torchvision and Albumentations libraries, and supports caching images + in RAM or on disk to reduce IO overhead during training. Additionally, it implements a robust verification process + to ensure data integrity and consistency. Attributes: - cache_ram (bool): True if images should be cached in RAM, False otherwise. - cache_disk (bool): True if images should be cached on disk, False otherwise. - samples (list): List of samples containing file, index, npy, and im. - torch_transforms (callable): torchvision transforms applied to the dataset. - album_transforms (callable, optional): Albumentations transforms applied to the dataset if augment is True. + cache_ram (bool): Indicates if caching in RAM is enabled. + cache_disk (bool): Indicates if caching on disk is enabled. + samples (list): A list of tuples, each containing the path to an image, its class index, path to its .npy cache + file (if caching on disk), and optionally the loaded image array (if caching in RAM). + torch_transforms (callable): PyTorch transforms to be applied to the images. """ - def __init__(self, root, args, augment=False, cache=False, prefix=""): + def __init__(self, root, args, augment=False, prefix=""): """ Initialize YOLO object with root, image size, augmentations, and cache settings. Args: - root (str): Dataset path. - args (Namespace): Argument parser containing dataset related settings. - augment (bool, optional): True if dataset should be augmented, False otherwise. Defaults to False. - cache (bool | str | optional): Cache setting, can be True, False, 'ram' or 'disk'. Defaults to False. + root (str): Path to the dataset directory where images are stored in a class-specific folder structure. + args (Namespace): Configuration containing dataset-related settings such as image size, augmentation + parameters, and cache settings. It includes attributes like `imgsz` (image size), `fraction` (fraction + of data to use), `scale`, `fliplr`, `flipud`, `cache` (disk or RAM caching for faster training), + `auto_augment`, `hsv_h`, `hsv_s`, `hsv_v`, and `crop_fraction`. + augment (bool, optional): Whether to apply augmentations to the dataset. Default is False. + prefix (str, optional): Prefix for logging and cache filenames, aiding in dataset identification and + debugging. Default is an empty string. """ super().__init__(root=root) if augment and args.fraction < 1.0: # reduce training fraction self.samples = self.samples[: round(len(self.samples) * args.fraction)] self.prefix = colorstr(f"{prefix}: ") if prefix else "" - self.cache_ram = cache is True or cache == "ram" - self.cache_disk = cache == "disk" + self.cache_ram = args.cache is True or args.cache == "ram" # cache images into RAM + self.cache_disk = args.cache == "disk" # cache images on hard drive as uncompressed *.npy files self.samples = self.verify_images() # filter out bad images self.samples = [list(x) + [Path(x[0]).with_suffix(".npy"), None] for x in self.samples] # file, index, npy, im scale = (1.0 - args.scale, 1.0) # (0.08, 1.0) diff --git a/ultralytics/data/explorer/explorer.py b/ultralytics/data/explorer/explorer.py index b77b8414c73..d21a5c2efe9 100644 --- a/ultralytics/data/explorer/explorer.py +++ b/ultralytics/data/explorer/explorer.py @@ -16,7 +16,7 @@ from ultralytics.data.dataset import YOLODataset from ultralytics.data.utils import check_det_dataset from ultralytics.models.yolo.model import YOLO -from ultralytics.utils import LOGGER, IterableSimpleNamespace, checks +from ultralytics.utils import LOGGER, IterableSimpleNamespace, checks, USER_CONFIG_DIR from .utils import get_sim_index_schema, get_table_schema, plot_query_result, prompt_sql_query, sanitize_batch @@ -54,9 +54,13 @@ def build_transforms(self, hyp: IterableSimpleNamespace = None): class Explorer: def __init__( - self, data: Union[str, Path] = "coco128.yaml", model: str = "yolov8n.pt", uri: str = "~/ultralytics/explorer" + self, + data: Union[str, Path] = "coco128.yaml", + model: str = "yolov8n.pt", + uri: str = USER_CONFIG_DIR / "explorer", ) -> None: - checks.check_requirements(["lancedb>=0.4.3", "duckdb"]) + # Note duckdb==0.10.0 bug https://github.com/ultralytics/ultralytics/pull/8181 + checks.check_requirements(["lancedb>=0.4.3", "duckdb<=0.9.2"]) import lancedb self.connection = lancedb.connect(uri) diff --git a/ultralytics/data/explorer/gui/dash.py b/ultralytics/data/explorer/gui/dash.py index 36ab3c0dd81..b082d495174 100644 --- a/ultralytics/data/explorer/gui/dash.py +++ b/ultralytics/data/explorer/gui/dash.py @@ -144,9 +144,9 @@ def run_sql_query(): def run_ai_query(): """Execute SQL query and update session state with query results.""" if not SETTINGS["openai_api_key"]: - st.session_state[ - "error" - ] = 'OpenAI API key not found in settings. Please run yolo settings openai_api_key="..."' + st.session_state["error"] = ( + 'OpenAI API key not found in settings. Please run yolo settings openai_api_key="..."' + ) return st.session_state["error"] = None query = st.session_state.get("ai_query") diff --git a/ultralytics/data/loaders.py b/ultralytics/data/loaders.py index 6faf90c39ef..4b89770c74c 100644 --- a/ultralytics/data/loaders.py +++ b/ultralytics/data/loaders.py @@ -24,7 +24,7 @@ class SourceTypes: """Class to represent various types of input sources for predictions.""" - webcam: bool = False + stream: bool = False screenshot: bool = False from_img: bool = False tensor: bool = False @@ -32,9 +32,7 @@ class SourceTypes: class LoadStreams: """ - Stream Loader for various types of video streams. - - Suitable for use with `yolo predict source='rtsp://example.com/media.mp4'`, supports RTSP, RTMP, HTTP, and TCP streams. + Stream Loader for various types of video streams, Supports RTSP, RTMP, HTTP, and TCP streams. Attributes: sources (str): The source input paths or URLs for the video streams. @@ -57,6 +55,11 @@ class LoadStreams: __iter__: Returns an iterator object for the class. __next__: Returns source paths, transformed, and original images for processing. __len__: Return the length of the sources object. + + Example: + ```bash + yolo predict source='rtsp://example.com/media.mp4' + ``` """ def __init__(self, sources="file.streams", vid_stride=1, buffer=False): @@ -69,6 +72,7 @@ def __init__(self, sources="file.streams", vid_stride=1, buffer=False): sources = Path(sources).read_text().rsplit() if os.path.isfile(sources) else [sources] n = len(sources) + self.bs = n self.fps = [0] * n # frames per second self.frames = [0] * n self.threads = [None] * n @@ -109,9 +113,6 @@ def __init__(self, sources="file.streams", vid_stride=1, buffer=False): self.threads[i].start() LOGGER.info("") # newline - # Check for common shapes - self.bs = self.__len__() - def update(self, i, cap, stream): """Read stream `i` frames in daemon thread.""" n, f = 0, self.frames[i] # frame number, frame array @@ -175,11 +176,11 @@ def __next__(self): images.append(x.pop(-1) if x else np.zeros(self.shape[i], dtype=np.uint8)) x.clear() - return self.sources, images, None, "" + return self.sources, images, [""] * self.bs def __len__(self): """Return the length of the sources object.""" - return len(self.sources) # 1E12 frames = 32 streams at 30 FPS for 30 years + return self.bs # 1E12 frames = 32 streams at 30 FPS for 30 years class LoadScreenshots: @@ -224,6 +225,7 @@ def __init__(self, source): self.frame = 0 self.sct = mss.mss() self.bs = 1 + self.fps = 30 # Parse monitor shape monitor = self.sct.monitors[self.screen] @@ -243,10 +245,10 @@ def __next__(self): s = f"screen {self.screen} (LTWH): {self.left},{self.top},{self.width},{self.height}: " self.frame += 1 - return [str(self.screen)], [im0], None, s # screen, img, vid_cap, string + return [str(self.screen)], [im0], [s] # screen, img, string -class LoadImages: +class LoadImagesAndVideos: """ YOLOv8 image/video dataloader. @@ -269,7 +271,7 @@ class LoadImages: _new_video(path): Create a new cv2.VideoCapture object for a given video path. """ - def __init__(self, path, vid_stride=1): + def __init__(self, path, batch=1, vid_stride=1): """Initialize the Dataloader and raise FileNotFoundError if file not found.""" parent = None if isinstance(path, str) and Path(path).suffix == ".txt": # *.txt file with img/vid/dir on each line @@ -295,10 +297,11 @@ def __init__(self, path, vid_stride=1): self.files = images + videos self.nf = ni + nv # number of files + self.ni = ni # number of images self.video_flag = [False] * ni + [True] * nv self.mode = "image" self.vid_stride = vid_stride # video frame-rate stride - self.bs = 1 + self.bs = batch if any(videos): self._new_video(videos[0]) # new video else: @@ -315,49 +318,69 @@ def __iter__(self): return self def __next__(self): - """Return next image, path and metadata from dataset.""" - if self.count == self.nf: - raise StopIteration - path = self.files[self.count] - - if self.video_flag[self.count]: - # Read video - self.mode = "video" - for _ in range(self.vid_stride): - self.cap.grab() - success, im0 = self.cap.retrieve() - while not success: - self.count += 1 - self.cap.release() - if self.count == self.nf: # last video + """Returns the next batch of images or video frames along with their paths and metadata.""" + paths, imgs, info = [], [], [] + while len(imgs) < self.bs: + if self.count >= self.nf: # end of file list + if len(imgs) > 0: + return paths, imgs, info # return last partial batch + else: raise StopIteration - path = self.files[self.count] - self._new_video(path) - success, im0 = self.cap.read() - - self.frame += 1 - # im0 = self._cv2_rotate(im0) # for use if cv2 autorotation is False - s = f"video {self.count + 1}/{self.nf} ({self.frame}/{self.frames}) {path}: " - else: - # Read image - self.count += 1 - im0 = cv2.imread(path) # BGR - if im0 is None: - raise FileNotFoundError(f"Image Not Found {path}") - s = f"image {self.count}/{self.nf} {path}: " + path = self.files[self.count] + if self.video_flag[self.count]: + self.mode = "video" + if not self.cap or not self.cap.isOpened(): + self._new_video(path) - return [path], [im0], self.cap, s + for _ in range(self.vid_stride): + success = self.cap.grab() + if not success: + break # end of video or failure + + if success: + success, im0 = self.cap.retrieve() + if success: + self.frame += 1 + paths.append(path) + imgs.append(im0) + info.append(f"video {self.count + 1}/{self.nf} (frame {self.frame}/{self.frames}) {path}: ") + if self.frame == self.frames: # end of video + self.count += 1 + self.cap.release() + else: + # Move to the next file if the current video ended or failed to open + self.count += 1 + if self.cap: + self.cap.release() + if self.count < self.nf: + self._new_video(self.files[self.count]) + else: + self.mode = "image" + im0 = cv2.imread(path) # BGR + if im0 is None: + raise FileNotFoundError(f"Image Not Found {path}") + paths.append(path) + imgs.append(im0) + info.append(f"image {self.count + 1}/{self.nf} {path}: ") + self.count += 1 # move to the next file + if self.count >= self.ni: # end of image list + break + + return paths, imgs, info def _new_video(self, path): - """Create a new video capture object.""" + """Creates a new video capture object for the given path.""" self.frame = 0 self.cap = cv2.VideoCapture(path) + self.fps = int(self.cap.get(cv2.CAP_PROP_FPS)) + if not self.cap.isOpened(): + raise FileNotFoundError(f"Failed to open video {path}") self.frames = int(self.cap.get(cv2.CAP_PROP_FRAME_COUNT) / self.vid_stride) def __len__(self): - """Returns the number of files in the object.""" - return self.nf # number of files + """Returns the number of batches in the object.""" + return math.ceil(self.nf / self.bs) # number of files class LoadPilAndNumpy: @@ -373,7 +396,6 @@ class LoadPilAndNumpy: im0 (list): List of images stored as Numpy arrays. mode (str): Type of data being processed, defaults to 'image'. bs (int): Batch size, equivalent to the length of `im0`. - count (int): Counter for iteration, initialized at 0 during `__iter__()`. Methods: _single_check(im): Validate and format a single image to a Numpy array. @@ -386,7 +408,6 @@ def __init__(self, im0): self.paths = [getattr(im, "filename", f"image{i}.jpg") for i, im in enumerate(im0)] self.im0 = [self._single_check(im) for im in im0] self.mode = "image" - # Generate fake paths self.bs = len(self.im0) @staticmethod @@ -409,7 +430,7 @@ def __next__(self): if self.count == 1: # loop only once as it's batch inference raise StopIteration self.count += 1 - return self.paths, self.im0, None, "" + return self.paths, self.im0, [""] * self.bs def __iter__(self): """Enables iteration for class LoadPilAndNumpy.""" @@ -474,7 +495,7 @@ def __next__(self): if self.count == 1: raise StopIteration self.count += 1 - return self.paths, self.im0, None, "" + return self.paths, self.im0, [""] * self.bs def __len__(self): """Returns the batch size.""" @@ -498,9 +519,6 @@ def autocast_list(source): return files -LOADERS = LoadStreams, LoadPilAndNumpy, LoadImages, LoadScreenshots # tuple - - def get_best_youtube_url(url, use_pafy=True): """ Retrieves the URL of the best quality MP4 video stream from a given YouTube video. @@ -531,3 +549,7 @@ def get_best_youtube_url(url, use_pafy=True): good_size = (f.get("width") or 0) >= 1920 or (f.get("height") or 0) >= 1080 if good_size and f["vcodec"] != "none" and f["acodec"] == "none" and f["ext"] == "mp4": return f.get("url") + + +# Define constants +LOADERS = (LoadStreams, LoadPilAndNumpy, LoadImagesAndVideos, LoadScreenshots) diff --git a/ultralytics/data/utils.py b/ultralytics/data/utils.py index 9214f8ce62b..c0a07736830 100644 --- a/ultralytics/data/utils.py +++ b/ultralytics/data/utils.py @@ -35,8 +35,8 @@ from ultralytics.utils.ops import segments2boxes HELP_URL = "See https://docs.ultralytics.com/datasets/detect for dataset formatting guidance." -IMG_FORMATS = "bmp", "dng", "jpeg", "jpg", "mpo", "png", "tif", "tiff", "webp", "pfm" # image suffixes -VID_FORMATS = "asf", "avi", "gif", "m4v", "mkv", "mov", "mp4", "mpeg", "mpg", "ts", "wmv", "webm" # video suffixes +IMG_FORMATS = {"bmp", "dng", "jpeg", "jpg", "mpo", "png", "tif", "tiff", "webp", "pfm"} # image suffixes +VID_FORMATS = {"asf", "avi", "gif", "m4v", "mkv", "mov", "mp4", "mpeg", "mpg", "ts", "wmv", "webm"} # video suffixes PIN_MEMORY = str(os.getenv("PIN_MEMORY", True)).lower() == "true" # global pin_memory for dataloaders @@ -365,6 +365,9 @@ def check_cls_dataset(dataset, split=""): # Download (optional if dataset=https://file.zip is passed directly) if str(dataset).startswith(("http:/", "https:/")): dataset = safe_download(dataset, dir=DATASETS_DIR, unzip=True, delete=False) + elif Path(dataset).suffix in (".zip", ".tar", ".gz"): + file = check_file(dataset) + dataset = safe_download(file, dir=DATASETS_DIR, unzip=True, delete=False) dataset = Path(dataset) data_dir = (dataset if dataset.is_dir() else (DATASETS_DIR / dataset)).resolve() @@ -467,7 +470,6 @@ def __init__(self, path="coco8.yaml", task="detect", autodownload=False): self.hub_dir = Path(f'{data["path"]}-hub') self.im_dir = self.hub_dir / "images" - self.im_dir.mkdir(parents=True, exist_ok=True) # makes /images self.stats = {"nc": len(data["names"]), "names": list(data["names"].values())} # statistics dictionary self.data = data @@ -551,6 +553,7 @@ def _round(labels): # Save, print and return if save: + self.hub_dir.mkdir(parents=True, exist_ok=True) # makes dataset-hub/ stats_path = self.hub_dir / "stats.json" LOGGER.info(f"Saving {stats_path.resolve()}...") with open(stats_path, "w") as f: @@ -563,6 +566,7 @@ def process_images(self): """Compress images for Ultralytics HUB.""" from ultralytics.data import YOLODataset # ClassificationDataset + self.im_dir.mkdir(parents=True, exist_ok=True) # makes dataset-hub/images/ for split in "train", "val", "test": if self.data.get(split) is None: continue diff --git a/ultralytics/engine/exporter.py b/ultralytics/engine/exporter.py index 2fd1a1433bc..b73ecf5c100 100644 --- a/ultralytics/engine/exporter.py +++ b/ultralytics/engine/exporter.py @@ -16,7 +16,7 @@ TensorFlow Edge TPU | `edgetpu` | yolov8n_edgetpu.tflite TensorFlow.js | `tfjs` | yolov8n_web_model/ PaddlePaddle | `paddle` | yolov8n_paddle_model/ -ncnn | `ncnn` | yolov8n_ncnn_model/ +NCNN | `ncnn` | yolov8n_ncnn_model/ Requirements: $ pip install "ultralytics[export]" @@ -41,6 +41,7 @@ yolov8n.tflite # TensorFlow Lite yolov8n_edgetpu.tflite # TensorFlow Edge TPU yolov8n_paddle_model # PaddlePaddle + yolov8n_ncnn_model # NCNN TensorFlow.js: $ cd .. && git clone https://github.com/zldrobit/tfjs-yolov5-example.git && cd tfjs-yolov5-example @@ -48,6 +49,7 @@ $ ln -s ../../yolov5/yolov8n_web_model public/yolov8n_web_model $ npm start """ + import json import os import shutil @@ -66,7 +68,7 @@ from ultralytics.data.utils import check_det_dataset from ultralytics.nn.autobackend import check_class_names, default_class_names from ultralytics.nn.modules import C2f, Detect, RTDETRDecoder -from ultralytics.nn.tasks import DetectionModel, SegmentationModel +from ultralytics.nn.tasks import DetectionModel, SegmentationModel, WorldModel from ultralytics.utils import ( ARM64, DEFAULT_CFG, @@ -81,11 +83,11 @@ get_default_args, yaml_save, ) -from ultralytics.utils.checks import check_imgsz, check_is_path_safe, check_requirements, check_version +from ultralytics.utils.checks import PYTHON_VERSION, check_imgsz, check_is_path_safe, check_requirements, check_version from ultralytics.utils.downloads import attempt_download_asset, get_github_assets from ultralytics.utils.files import file_size, spaces_in_path from ultralytics.utils.ops import Profile -from ultralytics.utils.torch_utils import get_latest_opset, select_device, smart_inference_mode +from ultralytics.utils.torch_utils import TORCH_1_13, get_latest_opset, select_device, smart_inference_mode def export_formats(): @@ -105,7 +107,7 @@ def export_formats(): ["TensorFlow Edge TPU", "edgetpu", "_edgetpu.tflite", True, False], ["TensorFlow.js", "tfjs", "_web_model", True, False], ["PaddlePaddle", "paddle", "_paddle_model", True, True], - ["ncnn", "ncnn", "_ncnn_model", True, True], + ["NCNN", "ncnn", "_ncnn_model", True, True], ] return pandas.DataFrame(x, columns=["Format", "Argument", "Suffix", "CPU", "GPU"]) @@ -199,6 +201,13 @@ def __call__(self, model=None): assert self.device.type == "cpu", "optimize=True not compatible with cuda devices, i.e. use device='cpu'" if edgetpu and not LINUX: raise SystemError("Edge TPU export only supported on Linux. See https://coral.ai/docs/edgetpu/compiler/") + if isinstance(model, WorldModel): + LOGGER.warning( + "WARNING ⚠️ YOLOWorld (original version) export is not supported to any format.\n" + "WARNING ⚠️ YOLOWorldv2 models (i.e. 'yolov8s-worldv2.pt') only support export to " + "(torchscript, onnx, openvino, engine, coreml) formats. " + "See https://docs.ultralytics.com/models/yolo-world for details." + ) # Input im = torch.zeros(self.args.batch, 3, *self.imgsz).to(self.device) @@ -216,7 +225,7 @@ def __call__(self, model=None): model.float() model = model.fuse() for m in model.modules(): - if isinstance(m, (Detect, RTDETRDecoder)): # Segment and Pose use Detect base class + if isinstance(m, (Detect, RTDETRDecoder)): # includes all Detect subclasses like Segment, Pose, OBB m.dynamic = self.args.dynamic m.export = True m.format = self.args.format @@ -227,7 +236,7 @@ def __call__(self, model=None): y = None for _ in range(2): y = model(im) # dry runs - if self.args.half and (engine or onnx) and self.device.type != "cpu": + if self.args.half and onnx and self.device.type != "cpu": im, model = im.half(), model.half() # to FP16 # Filter warnings @@ -250,9 +259,10 @@ def __call__(self, model=None): self.metadata = { "description": description, "author": "Ultralytics", - "license": "AGPL-3.0 https://ultralytics.com/license", "date": datetime.now().isoformat(), "version": __version__, + "license": "AGPL-3.0 License (https://ultralytics.com/license)", + "docs": "https://docs.ultralytics.com", "stride": int(max(model.stride)), "task": model.task, "batch": self.args.batch, @@ -273,7 +283,7 @@ def __call__(self, model=None): f[0], _ = self.export_torchscript() if engine: # TensorRT required before ONNX f[1], _ = self.export_engine() - if onnx or xml: # OpenVINO requires ONNX + if onnx: # ONNX f[2], _ = self.export_onnx() if xml: # OpenVINO f[3], _ = self.export_openvino() @@ -292,7 +302,7 @@ def __call__(self, model=None): f[9], _ = self.export_tfjs() if paddle: # PaddlePaddle f[10], _ = self.export_paddle() - if ncnn: # ncnn + if ncnn: # NCNN f[11], _ = self.export_ncnn() # Finish @@ -343,6 +353,8 @@ def export_onnx(self, prefix=colorstr("ONNX:")): requirements = ["onnx>=1.12.0"] if self.args.simplify: requirements += ["onnxsim>=0.4.33", "onnxruntime-gpu" if torch.cuda.is_available() else "onnxruntime"] + if ARM64: + check_requirements("cmake") # 'cmake' is needed to build onnxsim on aarch64 check_requirements(requirements) import onnx # noqa @@ -399,16 +411,16 @@ def export_onnx(self, prefix=colorstr("ONNX:")): @try_export def export_openvino(self, prefix=colorstr("OpenVINO:")): """YOLOv8 OpenVINO export.""" - check_requirements("openvino-dev>=2023.0") # requires openvino-dev: https://pypi.org/project/openvino-dev/ - import openvino.runtime as ov # noqa - from openvino.tools import mo # noqa + check_requirements("openvino>=2024.0.0") # requires openvino: https://pypi.org/project/openvino/ + import openvino as ov LOGGER.info(f"\n{prefix} starting export with openvino {ov.__version__}...") - f = str(self.file).replace(self.file.suffix, f"_openvino_model{os.sep}") - fq = str(self.file).replace(self.file.suffix, f"_int8_openvino_model{os.sep}") - f_onnx = self.file.with_suffix(".onnx") - f_ov = str(Path(f) / self.file.with_suffix(".xml").name) - fq_ov = str(Path(fq) / self.file.with_suffix(".xml").name) + assert TORCH_1_13, f"OpenVINO export requires torch>=1.13.0 but torch=={torch.__version__} is installed" + ov_model = ov.convert_model( + self.model.cpu(), + input=None if self.args.dynamic else [self.im.shape], + example_input=self.im, + ) def serialize(ov_model, file): """Set RT info, serialize and save metadata YAML.""" @@ -421,21 +433,19 @@ def serialize(ov_model, file): if self.model.task != "classify": ov_model.set_rt_info("fit_to_window_letterbox", ["model_info", "resize_type"]) - ov.serialize(ov_model, file) # save + ov.runtime.save_model(ov_model, file, compress_to_fp16=self.args.half) yaml_save(Path(file).parent / "metadata.yaml", self.metadata) # add metadata.yaml - ov_model = mo.convert_model( - f_onnx, model_name=self.pretty_name, framework="onnx", compress_to_fp16=self.args.half - ) # export - if self.args.int8: + fq = str(self.file).replace(self.file.suffix, f"_int8_openvino_model{os.sep}") + fq_ov = str(Path(fq) / self.file.with_suffix(".xml").name) if not self.args.data: self.args.data = DEFAULT_CFG.data or "coco128.yaml" LOGGER.warning( f"{prefix} WARNING ⚠️ INT8 export requires a missing 'data' arg for calibration. " f"Using default 'data={self.args.data}'." ) - check_requirements("nncf>=2.5.0") + check_requirements("nncf>=2.8.0") import nncf def transform_fn(data_item): @@ -449,18 +459,37 @@ def transform_fn(data_item): # Generate calibration data for integer quantization LOGGER.info(f"{prefix} collecting INT8 calibration images from 'data={self.args.data}'") data = check_det_dataset(self.args.data) - dataset = YOLODataset(data["val"], data=data, imgsz=self.imgsz[0], augment=False) + dataset = YOLODataset(data["val"], data=data, task=self.model.task, imgsz=self.imgsz[0], augment=False) n = len(dataset) if n < 300: LOGGER.warning(f"{prefix} WARNING ⚠️ >300 images recommended for INT8 calibration, found {n} images.") quantization_dataset = nncf.Dataset(dataset, transform_fn) - ignored_scope = nncf.IgnoredScope(types=["Multiply", "Subtract", "Sigmoid"]) # ignore operation + + ignored_scope = None + if isinstance(self.model.model[-1], Detect): + # Includes all Detect subclasses like Segment, Pose, OBB, WorldDetect + head_module_name = ".".join(list(self.model.named_modules())[-1][0].split(".")[:2]) + + ignored_scope = nncf.IgnoredScope( # ignore operations + patterns=[ + f".*{head_module_name}/.*/Add", + f".*{head_module_name}/.*/Sub*", + f".*{head_module_name}/.*/Mul*", + f".*{head_module_name}/.*/Div*", + f".*{head_module_name}\\.dfl.*", + ], + types=["Sigmoid"], + ) + quantized_ov_model = nncf.quantize( ov_model, quantization_dataset, preset=nncf.QuantizationPreset.MIXED, ignored_scope=ignored_scope ) serialize(quantized_ov_model, fq_ov) return fq, None + f = str(self.file).replace(self.file.suffix, f"_openvino_model{os.sep}") + f_ov = str(Path(f) / self.file.with_suffix(".xml").name) + serialize(ov_model, f_ov) return f, None @@ -479,14 +508,14 @@ def export_paddle(self, prefix=colorstr("PaddlePaddle:")): return f, None @try_export - def export_ncnn(self, prefix=colorstr("ncnn:")): + def export_ncnn(self, prefix=colorstr("NCNN:")): """ - YOLOv8 ncnn export using PNNX https://github.com/pnnx/pnnx. + YOLOv8 NCNN export using PNNX https://github.com/pnnx/pnnx. """ - check_requirements("git+https://github.com/Tencent/ncnn.git" if ARM64 else "ncnn") # requires ncnn + check_requirements("ncnn") import ncnn # noqa - LOGGER.info(f"\n{prefix} starting export with ncnn {ncnn.__version__}...") + LOGGER.info(f"\n{prefix} starting export with NCNN {ncnn.__version__}...") f = Path(str(self.file).replace(self.file.suffix, f"_ncnn_model{os.sep}")) f_ts = self.file.with_suffix(".torchscript") @@ -498,13 +527,13 @@ def export_ncnn(self, prefix=colorstr("ncnn:")): "https://github.com/pnnx/pnnx/.\nNote PNNX Binary file must be placed in current working directory " f"or in {ROOT}. See PNNX repo for full installation instructions." ) - system = ["macos"] if MACOS else ["windows"] if WINDOWS else ["ubuntu", "linux"] # operating system - try: - _, assets = get_github_assets(repo="pnnx/pnnx", retry=True) - url = [x for x in assets if any(s in x for s in system)][0] - except Exception as e: - url = f"https://github.com/pnnx/pnnx/releases/download/20231127/pnnx-20231127-{system[0]}.zip" - LOGGER.warning(f"{prefix} WARNING ⚠️ PNNX GitHub assets not found: {e}, using default {url}") + system = "macos" if MACOS else "windows" if WINDOWS else "linux-aarch64" if ARM64 else "linux" + _, assets = get_github_assets(repo="pnnx/pnnx", retry=True) + if assets: + url = [x for x in assets if f"{system}.zip" in x][0] + else: + url = f"https://github.com/pnnx/pnnx/releases/download/20240226/pnnx-20240226-{system}.zip" + LOGGER.warning(f"{prefix} WARNING ⚠️ PNNX GitHub assets not found, using default {url}") asset = attempt_download_asset(url, repo="pnnx/pnnx", release="latest") if check_is_path_safe(Path.cwd(), asset): # avoid path traversal security vulnerability unzip_dir = Path(asset).with_suffix("") @@ -595,10 +624,8 @@ def export_coreml(self, prefix=colorstr("CoreML:")): ct_model = cto.palettize_weights(ct_model, config=config) if self.args.nms and self.model.task == "detect": if mlmodel: - import platform - # coremltools<=6.2 NMS export requires Python<3.11 - check_version(platform.python_version(), "<3.11", name="Python ", hard=True) + check_version(PYTHON_VERSION, "<3.11", name="Python ", hard=True) weights_dir = None else: ct_model.save(str(f)) # save otherwise weights_dir does not exist @@ -700,16 +727,21 @@ def export_saved_model(self, prefix=colorstr("TensorFlow SavedModel:")): try: import tensorflow as tf # noqa except ImportError: - check_requirements(f"tensorflow{'-macos' if MACOS else '-aarch64' if ARM64 else '' if cuda else '-cpu'}") + suffix = "-macos" if MACOS else "-aarch64" if ARM64 else "" if cuda else "-cpu" + version = "" if ARM64 else "<=2.13.1" + check_requirements(f"tensorflow{suffix}{version}") import tensorflow as tf # noqa + if ARM64: + check_requirements("cmake") # 'cmake' is needed to build onnxsim on aarch64 check_requirements( ( - "onnx", + "onnx>=1.12.0", "onnx2tf>=1.15.4,<=1.17.5", "sng4onnx>=1.0.1", "onnxsim>=0.4.33", "onnx_graphsurgeon>=0.3.26", "tflite_support", + "flatbuffers>=23.5.26,<100", # update old 'flatbuffers' included inside tensorflow package "onnxruntime-gpu" if cuda else "onnxruntime", ), cmds="--extra-index-url https://pypi.ngc.nvidia.com", @@ -723,10 +755,10 @@ def export_saved_model(self, prefix=colorstr("TensorFlow SavedModel:")): verbose=True, msg="https://github.com/ultralytics/ultralytics/issues/5161", ) + import onnx2tf + f = Path(str(self.file).replace(self.file.suffix, "_saved_model")) if f.is_dir(): - import shutil - shutil.rmtree(f) # delete output folder # Pre-download calibration file to fix https://github.com/PINTO0309/onnx2tf/issues/545 @@ -740,8 +772,9 @@ def export_saved_model(self, prefix=colorstr("TensorFlow SavedModel:")): # Export to TF tmp_file = f / "tmp_tflite_int8_calibration_images.npy" # int8 calibration images file + np_data = None if self.args.int8: - verbosity = "--verbosity info" + verbosity = "info" if self.args.data: # Generate calibration data for integer quantization LOGGER.info(f"{prefix} collecting INT8 calibration images from 'data={self.args.data}'") @@ -758,16 +791,20 @@ def export_saved_model(self, prefix=colorstr("TensorFlow SavedModel:")): # mean = images.view(-1, 3).mean(0) # imagenet mean [123.675, 116.28, 103.53] # std = images.view(-1, 3).std(0) # imagenet std [58.395, 57.12, 57.375] np.save(str(tmp_file), images.numpy()) # BHWC - int8 = f'-oiqt -qt per-tensor -cind images "{tmp_file}" "[[[[0, 0, 0]]]]" "[[[[255, 255, 255]]]]"' - else: - int8 = "-oiqt -qt per-tensor" + np_data = [["images", tmp_file, [[[[0, 0, 0]]]], [[[[255, 255, 255]]]]]] else: - verbosity = "--non_verbose" - int8 = "" - - cmd = f'onnx2tf -i "{f_onnx}" -o "{f}" -nuo {verbosity} {int8}'.strip() - LOGGER.info(f"{prefix} running '{cmd}'") - subprocess.run(cmd, shell=True) + verbosity = "error" + + LOGGER.info(f"{prefix} starting TFLite export with onnx2tf {onnx2tf.__version__}...") + onnx2tf.convert( + input_onnx_file_path=f_onnx, + output_folder_path=str(f), + not_use_onnxsim=True, + verbosity=verbosity, + output_integer_quantized_tflite=self.args.int8, + quant_type="per-tensor", # "per-tensor" (faster) or "per-channel" (slower but more accurate) + custom_input_op_name_np_data_path=np_data, + ) yaml_save(f / "metadata.yaml", self.metadata) # add metadata.yaml # Remove/rename TFLite models @@ -848,8 +885,10 @@ def export_edgetpu(self, tflite_model="", prefix=colorstr("Edge TPU:")): @try_export def export_tfjs(self, prefix=colorstr("TensorFlow.js:")): """YOLOv8 TensorFlow.js export.""" - # JAX bug requiring install constraints in https://github.com/google/jax/issues/18978 - check_requirements(["jax<=0.4.21", "jaxlib<=0.4.21", "tensorflowjs"]) + check_requirements("tensorflowjs") + if ARM64: + # Fix error: `np.object` was a deprecated alias for the builtin `object` when exporting to TF.js on ARM64 + check_requirements("numpy==1.23.5") import tensorflow as tf import tensorflowjs as tfjs # noqa @@ -865,7 +904,10 @@ def export_tfjs(self, prefix=colorstr("TensorFlow.js:")): quantization = "--quantize_float16" if self.args.half else "--quantize_uint8" if self.args.int8 else "" with spaces_in_path(f_pb) as fpb_, spaces_in_path(f) as f_: # exporter can not handle spaces in path - cmd = f'tensorflowjs_converter --input_format=tf_frozen_model {quantization} --output_node_names={outputs} "{fpb_}" "{f_}"' + cmd = ( + "tensorflowjs_converter " + f'--input_format=tf_frozen_model {quantization} --output_node_names={outputs} "{fpb_}" "{f_}"' + ) LOGGER.info(f"{prefix} running '{cmd}'") subprocess.run(cmd, shell=True) @@ -1060,10 +1102,10 @@ def _pipeline_coreml(self, model, weights_dir=None, prefix=colorstr("CoreML Pipe # Save the model model = ct.models.MLModel(pipeline.spec, weights_dir=weights_dir) model.input_description["image"] = "Input image" - model.input_description["iouThreshold"] = f"(optional) IOU threshold override (default: {nms.iouThreshold})" - model.input_description[ - "confidenceThreshold" - ] = f"(optional) Confidence threshold override (default: {nms.confidenceThreshold})" + model.input_description["iouThreshold"] = f"(optional) IoU threshold override (default: {nms.iouThreshold})" + model.input_description["confidenceThreshold"] = ( + f"(optional) Confidence threshold override (default: {nms.confidenceThreshold})" + ) model.output_description["confidence"] = 'Boxes × Class confidence (see user-defined metadata "classes")' model.output_description["coordinates"] = "Boxes × [x, y, width, height] (relative to image size)" LOGGER.info(f"{prefix} pipeline success") diff --git a/ultralytics/engine/model.py b/ultralytics/engine/model.py index 625607035c0..ef5c93c01cf 100644 --- a/ultralytics/engine/model.py +++ b/ultralytics/engine/model.py @@ -5,61 +5,107 @@ from pathlib import Path from typing import Union +import numpy as np +import torch + from ultralytics.cfg import TASK2DATA, get_cfg, get_save_dir +from ultralytics.hub.utils import HUB_WEB_ROOT from ultralytics.nn.tasks import attempt_load_one_weight, guess_model_task, nn, yaml_model_load from ultralytics.utils import ASSETS, DEFAULT_CFG_DICT, LOGGER, RANK, SETTINGS, callbacks, checks, emojis, yaml_load -from ultralytics.hub.utils import HUB_WEB_ROOT class Model(nn.Module): """ - A base class to unify APIs for all models. + A base class for implementing YOLO models, unifying APIs across different model types. + + This class provides a common interface for various operations related to YOLO models, such as training, + validation, prediction, exporting, and benchmarking. It handles different types of models, including those + loaded from local files, Ultralytics HUB, or Triton Server. The class is designed to be flexible and + extendable for different tasks and model configurations. Args: - model (str, Path): Path to the model file to load or create. - task (Any, optional): Task type for the YOLO model. Defaults to None. + model (Union[str, Path], optional): Path or name of the model to load or create. This can be a local file + path, a model name from Ultralytics HUB, or a Triton Server model. Defaults to 'yolov8n.pt'. + task (Any, optional): The task type associated with the YOLO model. This can be used to specify the model's + application domain, such as object detection, segmentation, etc. Defaults to None. + verbose (bool, optional): If True, enables verbose output during the model's operations. Defaults to False. Attributes: - predictor (Any): The predictor object. - model (Any): The model object. - trainer (Any): The trainer object. - task (str): The type of model task. - ckpt (Any): The checkpoint object if the model loaded from *.pt file. - cfg (str): The model configuration if loaded from *.yaml file. - ckpt_path (str): The checkpoint file path. - overrides (dict): Overrides for the trainer object. - metrics (Any): The data for metrics. + callbacks (dict): A dictionary of callback functions for various events during model operations. + predictor (BasePredictor): The predictor object used for making predictions. + model (nn.Module): The underlying PyTorch model. + trainer (BaseTrainer): The trainer object used for training the model. + ckpt (dict): The checkpoint data if the model is loaded from a *.pt file. + cfg (str): The configuration of the model if loaded from a *.yaml file. + ckpt_path (str): The path to the checkpoint file. + overrides (dict): A dictionary of overrides for model configuration. + metrics (dict): The latest training/validation metrics. + session (HUBTrainingSession): The Ultralytics HUB session, if applicable. + task (str): The type of task the model is intended for. + model_name (str): The name of the model. Methods: - __call__(source=None, stream=False, **kwargs): - Alias for the predict method. - _new(cfg:str, verbose:bool=True) -> None: - Initializes a new model and infers the task type from the model definitions. - _load(weights:str, task:str='') -> None: - Initializes a new model and infers the task type from the model head. - _check_is_pytorch_model() -> None: - Raises TypeError if the model is not a PyTorch model. - reset() -> None: - Resets the model modules. - info(verbose:bool=False) -> None: - Logs the model info. - fuse() -> None: - Fuses the model for faster inference. - predict(source=None, stream=False, **kwargs) -> List[ultralytics.engine.results.Results]: - Performs prediction using the YOLO model. - - Returns: - list(ultralytics.engine.results.Results): The prediction results. + __call__: Alias for the predict method, enabling the model instance to be callable. + _new: Initializes a new model based on a configuration file. + _load: Loads a model from a checkpoint file. + _check_is_pytorch_model: Ensures that the model is a PyTorch model. + reset_weights: Resets the model's weights to their initial state. + load: Loads model weights from a specified file. + save: Saves the current state of the model to a file. + info: Logs or returns information about the model. + fuse: Fuses Conv2d and BatchNorm2d layers for optimized inference. + predict: Performs object detection predictions. + track: Performs object tracking. + val: Validates the model on a dataset. + benchmark: Benchmarks the model on various export formats. + export: Exports the model to different formats. + train: Trains the model on a dataset. + tune: Performs hyperparameter tuning. + _apply: Applies a function to the model's tensors. + add_callback: Adds a callback function for an event. + clear_callback: Clears all callbacks for an event. + reset_callbacks: Resets all callbacks to their default functions. + _get_hub_session: Retrieves or creates an Ultralytics HUB session. + is_triton_model: Checks if a model is a Triton Server model. + is_hub_model: Checks if a model is an Ultralytics HUB model. + _reset_ckpt_args: Resets checkpoint arguments when loading a PyTorch model. + _smart_load: Loads the appropriate module based on the model task. + task_map: Provides a mapping from model tasks to corresponding classes. + + Raises: + FileNotFoundError: If the specified model file does not exist or is inaccessible. + ValueError: If the model file or configuration is invalid or unsupported. + ImportError: If required dependencies for specific model types (like HUB SDK) are not installed. + TypeError: If the model is not a PyTorch model when required. + AttributeError: If required attributes or methods are not implemented or available. + NotImplementedError: If a specific model task or mode is not supported. """ - def __init__(self, model: Union[str, Path] = "yolov8n.pt", task=None, verbose=False) -> None: + def __init__( + self, + model: Union[str, Path] = "yolov8n.pt", + task: str = None, + verbose: bool = False, + ) -> None: """ - Initializes the YOLO model. + Initializes a new instance of the YOLO model class. + + This constructor sets up the model based on the provided model path or name. It handles various types of model + sources, including local files, Ultralytics HUB models, and Triton Server models. The method initializes several + important attributes of the model and prepares it for operations like training, prediction, or export. Args: - model (Union[str, Path], optional): Path or name of the model to load or create. Defaults to 'yolov8n.pt'. - task (Any, optional): Task type for the YOLO model. Defaults to None. - verbose (bool, optional): Whether to enable verbose mode. + model (Union[str, Path], optional): The path or model file to load or create. This can be a local + file path, a model name from Ultralytics HUB, or a Triton Server model. Defaults to 'yolov8n.pt'. + task (Any, optional): The task type associated with the YOLO model, specifying its application domain. + Defaults to None. + verbose (bool, optional): If True, enables verbose output during the model's initialization and subsequent + operations. Defaults to False. + + Raises: + FileNotFoundError: If the specified model file does not exist or is inaccessible. + ValueError: If the model file or configuration is invalid or unsupported. + ImportError: If required dependencies for specific model types (like HUB SDK) are not installed. """ super().__init__() self.callbacks = callbacks.get_default_callbacks() @@ -73,32 +119,50 @@ def __init__(self, model: Union[str, Path] = "yolov8n.pt", task=None, verbose=Fa self.metrics = None # validation/training metrics self.session = None # HUB session self.task = task # task type - self.model_name = model = str(model).strip() # strip spaces + model = str(model).strip() # Check if Ultralytics HUB model from https://hub.ultralytics.com if self.is_hub_model(model): # Fetch model from HUB - checks.check_requirements("hub-sdk>0.0.2") + checks.check_requirements("hub-sdk>=0.0.6") self.session = self._get_hub_session(model) model = self.session.model_file # Check if Triton Server model elif self.is_triton_model(model): - self.model = model + self.model_name = self.model = model self.task = task return # Load or create new YOLO model - model = checks.check_model_file_from_stem(model) # add suffix, i.e. yolov8n -> yolov8n.pt if Path(model).suffix in (".yaml", ".yml"): self._new(model, task=task, verbose=verbose) else: self._load(model, task=task) - self.model_name = model + def __call__( + self, + source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None, + stream: bool = False, + **kwargs, + ) -> list: + """ + An alias for the predict method, enabling the model instance to be callable. + + This method simplifies the process of making predictions by allowing the model instance to be called directly + with the required arguments for prediction. - def __call__(self, source=None, stream=False, **kwargs): - """Calls the predict() method with given arguments to perform object detection.""" + Args: + source (str | Path | int | PIL.Image | np.ndarray, optional): The source of the image for making + predictions. Accepts various types, including file paths, URLs, PIL images, and numpy arrays. + Defaults to None. + stream (bool, optional): If True, treats the input source as a continuous stream for predictions. + Defaults to False. + **kwargs (any): Additional keyword arguments for configuring the prediction process. + + Returns: + (List[ultralytics.engine.results.Results]): A list of prediction results, encapsulated in the Results class. + """ return self.predict(source, stream, **kwargs) @staticmethod @@ -110,7 +174,7 @@ def _get_hub_session(model: str): return session if session.client.authenticated else None @staticmethod - def is_triton_model(model): + def is_triton_model(model: str) -> bool: """Is model a Triton Server URL string, i.e. :////""" from urllib.parse import urlsplit @@ -118,17 +182,17 @@ def is_triton_model(model): return url.netloc and url.path and url.scheme in {"http", "grpc"} @staticmethod - def is_hub_model(model): + def is_hub_model(model: str) -> bool: """Check if the provided model is a HUB model.""" return any( ( model.startswith(f"{HUB_WEB_ROOT}/models/"), # i.e. https://hub.ultralytics.com/models/MODEL_ID - [len(x) for x in model.split("_")] == [42, 20], # APIKEY_MODELID - len(model) == 20 and not Path(model).exists() and all(x not in model for x in "./\\"), # MODELID + [len(x) for x in model.split("_")] == [42, 20], # APIKEY_MODEL + len(model) == 20 and not Path(model).exists() and all(x not in model for x in "./\\"), # MODEL ) ) - def _new(self, cfg: str, task=None, model=None, verbose=False): + def _new(self, cfg: str, task=None, model=None, verbose=False) -> None: """ Initializes a new model and infers the task type from the model definitions. @@ -148,8 +212,9 @@ def _new(self, cfg: str, task=None, model=None, verbose=False): # Below added to allow export from YAMLs self.model.args = {**DEFAULT_CFG_DICT, **self.overrides} # combine default and model args (prefer model args) self.model.task = self.task + self.model_name = cfg - def _load(self, weights: str, task=None): + def _load(self, weights: str, task=None) -> None: """ Initializes a new model and infers the task type from the model head. @@ -157,21 +222,25 @@ def _load(self, weights: str, task=None): weights (str): model checkpoint to be loaded task (str | None): model task """ - suffix = Path(weights).suffix - if suffix == ".pt": + if weights.lower().startswith(("https://", "http://", "rtsp://", "rtmp://", "tcp://")): + weights = checks.check_file(weights) # automatically download and return local filename + weights = checks.check_model_file_from_stem(weights) # add suffix, i.e. yolov8n -> yolov8n.pt + + if Path(weights).suffix == ".pt": self.model, self.ckpt = attempt_load_one_weight(weights) self.task = self.model.args["task"] self.overrides = self.model.args = self._reset_ckpt_args(self.model.args) self.ckpt_path = self.model.pt_path else: - weights = checks.check_file(weights) + weights = checks.check_file(weights) # runs in all cases, not redundant with above call self.model, self.ckpt = weights, None self.task = task or guess_model_task(weights) self.ckpt_path = weights self.overrides["model"] = weights self.overrides["task"] = self.task + self.model_name = weights - def _check_is_pytorch_model(self): + def _check_is_pytorch_model(self) -> None: """Raises TypeError is model is not a PyTorch model.""" pt_str = isinstance(self.model, (str, Path)) and Path(self.model).suffix == ".pt" pt_module = isinstance(self.model, nn.Module) @@ -184,8 +253,20 @@ def _check_is_pytorch_model(self): f"argument directly in your inference command, i.e. 'model.predict(source=..., device=0)'" ) - def reset_weights(self): - """Resets the model modules parameters to randomly initialized values, losing all training information.""" + def reset_weights(self) -> "Model": + """ + Resets the model parameters to randomly initialized values, effectively discarding all training information. + + This method iterates through all modules in the model and resets their parameters if they have a + 'reset_parameters' method. It also ensures that all parameters have 'requires_grad' set to True, enabling them + to be updated during training. + + Returns: + self (ultralytics.engine.model.Model): The instance of the class with reset weights. + + Raises: + AssertionError: If the model is not a PyTorch model. + """ self._check_is_pytorch_model() for m in self.model.modules(): if hasattr(m, "reset_parameters"): @@ -194,62 +275,147 @@ def reset_weights(self): p.requires_grad = True return self - def load(self, weights="yolov8n.pt"): - """Transfers parameters with matching names and shapes from 'weights' to model.""" + def load(self, weights: Union[str, Path] = "yolov8n.pt") -> "Model": + """ + Loads parameters from the specified weights file into the model. + + This method supports loading weights from a file or directly from a weights object. It matches parameters by + name and shape and transfers them to the model. + + Args: + weights (str | Path): Path to the weights file or a weights object. Defaults to 'yolov8n.pt'. + + Returns: + self (ultralytics.engine.model.Model): The instance of the class with loaded weights. + + Raises: + AssertionError: If the model is not a PyTorch model. + """ self._check_is_pytorch_model() if isinstance(weights, (str, Path)): weights, self.ckpt = attempt_load_one_weight(weights) self.model.load(weights) return self - def info(self, detailed=False, verbose=True): + def save(self, filename: Union[str, Path] = "saved_model.pt", use_dill=True) -> None: """ - Logs model info. + Saves the current model state to a file. + + This method exports the model's checkpoint (ckpt) to the specified filename. Args: - detailed (bool): Show detailed information about model. - verbose (bool): Controls verbosity. + filename (str | Path): The name of the file to save the model to. Defaults to 'saved_model.pt'. + use_dill (bool): Whether to try using dill for serialization if available. Defaults to True. + + Raises: + AssertionError: If the model is not a PyTorch model. + """ + self._check_is_pytorch_model() + from ultralytics import __version__ + from datetime import datetime + + updates = { + "date": datetime.now().isoformat(), + "version": __version__, + "license": "AGPL-3.0 License (https://ultralytics.com/license)", + "docs": "https://docs.ultralytics.com", + } + torch.save({**self.ckpt, **updates}, filename, use_dill=use_dill) + + def info(self, detailed: bool = False, verbose: bool = True): + """ + Logs or returns model information. + + This method provides an overview or detailed information about the model, depending on the arguments passed. + It can control the verbosity of the output. + + Args: + detailed (bool): If True, shows detailed information about the model. Defaults to False. + verbose (bool): If True, prints the information. If False, returns the information. Defaults to True. + + Returns: + (list): Various types of information about the model, depending on the 'detailed' and 'verbose' parameters. + + Raises: + AssertionError: If the model is not a PyTorch model. """ self._check_is_pytorch_model() return self.model.info(detailed=detailed, verbose=verbose) def fuse(self): - """Fuse PyTorch Conv2d and BatchNorm2d layers.""" + """ + Fuses Conv2d and BatchNorm2d layers in the model. + + This method optimizes the model by fusing Conv2d and BatchNorm2d layers, which can improve inference speed. + + Raises: + AssertionError: If the model is not a PyTorch model. + """ self._check_is_pytorch_model() self.model.fuse() - def embed(self, source=None, stream=False, **kwargs): + def embed( + self, + source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None, + stream: bool = False, + **kwargs, + ) -> list: """ - Calls the predict() method and returns image embeddings. + Generates image embeddings based on the provided source. + + This method is a wrapper around the 'predict()' method, focusing on generating embeddings from an image source. + It allows customization of the embedding process through various keyword arguments. Args: - source (str | int | PIL | np.ndarray): The source of the image to make predictions on. - Accepts all source types accepted by the YOLO model. - stream (bool): Whether to stream the predictions or not. Defaults to False. - **kwargs : Additional keyword arguments passed to the predictor. - Check the 'configuration' section in the documentation for all available options. + source (str | int | PIL.Image | np.ndarray): The source of the image for generating embeddings. + The source can be a file path, URL, PIL image, numpy array, etc. Defaults to None. + stream (bool): If True, predictions are streamed. Defaults to False. + **kwargs (any): Additional keyword arguments for configuring the embedding process. Returns: - (List[torch.Tensor]): A list of image embeddings. + (List[torch.Tensor]): A list containing the image embeddings. + + Raises: + AssertionError: If the model is not a PyTorch model. """ if not kwargs.get("embed"): kwargs["embed"] = [len(self.model.model) - 2] # embed second-to-last layer if no indices passed return self.predict(source, stream, **kwargs) - def predict(self, source=None, stream=False, predictor=None, **kwargs): + def predict( + self, + source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None, + stream: bool = False, + predictor=None, + **kwargs, + ) -> list: """ - Perform prediction using the YOLO model. + Performs predictions on the given image source using the YOLO model. + + This method facilitates the prediction process, allowing various configurations through keyword arguments. + It supports predictions with custom predictors or the default predictor method. The method handles different + types of image sources and can operate in a streaming mode. It also provides support for SAM-type models + through 'prompts'. + + The method sets up a new predictor if not already present and updates its arguments with each call. + It also issues a warning and uses default assets if the 'source' is not provided. The method determines if it + is being called from the command line interface and adjusts its behavior accordingly, including setting defaults + for confidence threshold and saving behavior. Args: - source (str | int | PIL | np.ndarray): The source of the image to make predictions on. - Accepts all source types accepted by the YOLO model. - stream (bool): Whether to stream the predictions or not. Defaults to False. - predictor (BasePredictor): Customized predictor. - **kwargs : Additional keyword arguments passed to the predictor. - Check the 'configuration' section in the documentation for all available options. + source (str | int | PIL.Image | np.ndarray, optional): The source of the image for making predictions. + Accepts various types, including file paths, URLs, PIL images, and numpy arrays. Defaults to ASSETS. + stream (bool, optional): Treats the input source as a continuous stream for predictions. Defaults to False. + predictor (BasePredictor, optional): An instance of a custom predictor class for making predictions. + If None, the method uses a default predictor. Defaults to None. + **kwargs (any): Additional keyword arguments for configuring the prediction process. These arguments allow + for further customization of the prediction behavior. Returns: - (List[ultralytics.engine.results.Results]): The prediction results. + (List[ultralytics.engine.results.Results]): A list of prediction results, encapsulated in the Results class. + + Raises: + AttributeError: If the predictor is not properly set up. """ if source is None: source = ASSETS @@ -259,7 +425,7 @@ def predict(self, source=None, stream=False, predictor=None, **kwargs): x in sys.argv for x in ("predict", "track", "mode=predict", "mode=track") ) - custom = {"conf": 0.25, "save": is_cli, "mode": "predict"} # method defaults + custom = {"conf": 0.25, "batch": 1, "save": is_cli, "mode": "predict"} # method defaults args = {**self.overrides, **custom, **kwargs} # highest priority args on the right prompts = args.pop("prompts", None) # for SAM-type models @@ -274,34 +440,74 @@ def predict(self, source=None, stream=False, predictor=None, **kwargs): self.predictor.set_prompts(prompts) return self.predictor.predict_cli(source=source) if is_cli else self.predictor(source=source, stream=stream) - def track(self, source=None, stream=False, persist=False, **kwargs): + def track( + self, + source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None, + stream: bool = False, + persist: bool = False, + **kwargs, + ) -> list: """ - Perform object tracking on the input source using the registered trackers. + Conducts object tracking on the specified input source using the registered trackers. + + This method performs object tracking using the model's predictors and optionally registered trackers. It is + capable of handling different types of input sources such as file paths or video streams. The method supports + customization of the tracking process through various keyword arguments. It registers trackers if they are not + already present and optionally persists them based on the 'persist' flag. + + The method sets a default confidence threshold specifically for ByteTrack-based tracking, which requires low + confidence predictions as input. The tracking mode is explicitly set in the keyword arguments. Args: - source (str, optional): The input source for object tracking. Can be a file path or a video stream. - stream (bool, optional): Whether the input source is a video stream. Defaults to False. - persist (bool, optional): Whether to persist the trackers if they already exist. Defaults to False. - **kwargs (optional): Additional keyword arguments for the tracking process. + source (str, optional): The input source for object tracking. It can be a file path, URL, or video stream. + stream (bool, optional): Treats the input source as a continuous video stream. Defaults to False. + persist (bool, optional): Persists the trackers between different calls to this method. Defaults to False. + **kwargs (any): Additional keyword arguments for configuring the tracking process. These arguments allow + for further customization of the tracking behavior. Returns: - (List[ultralytics.engine.results.Results]): The tracking results. + (List[ultralytics.engine.results.Results]): A list of tracking results, encapsulated in the Results class. + + Raises: + AttributeError: If the predictor does not have registered trackers. """ if not hasattr(self.predictor, "trackers"): from ultralytics.trackers import register_tracker register_tracker(self, persist) kwargs["conf"] = kwargs.get("conf") or 0.1 # ByteTrack-based method needs low confidence predictions as input + kwargs["batch"] = kwargs.get("batch") or 1 # batch-size 1 for tracking in videos kwargs["mode"] = "track" return self.predict(source=source, stream=stream, **kwargs) - def val(self, validator=None, **kwargs): + def val( + self, + validator=None, + **kwargs, + ): """ - Validate a model on a given dataset. + Validates the model using a specified dataset and validation configuration. + + This method facilitates the model validation process, allowing for a range of customization through various + settings and configurations. It supports validation with a custom validator or the default validation approach. + The method combines default configurations, method-specific defaults, and user-provided arguments to configure + the validation process. After validation, it updates the model's metrics with the results obtained from the + validator. + + The method supports various arguments that allow customization of the validation process. For a comprehensive + list of all configurable options, users should refer to the 'configuration' section in the documentation. Args: - validator (BaseValidator): Customized validator. - **kwargs : Any other args accepted by the validators. To see all args check 'configuration' section in docs + validator (BaseValidator, optional): An instance of a custom validator class for validating the model. If + None, the method uses a default validator. Defaults to None. + **kwargs (any): Arbitrary keyword arguments representing the validation configuration. These arguments are + used to customize various aspects of the validation process. + + Returns: + (dict): Validation metrics obtained from the validation process. + + Raises: + AssertionError: If the model is not a PyTorch model. """ custom = {"rect": True} # method defaults args = {**self.overrides, **custom, **kwargs, "mode": "val"} # highest priority args on the right @@ -311,12 +517,31 @@ def val(self, validator=None, **kwargs): self.metrics = validator.metrics return validator.metrics - def benchmark(self, **kwargs): + def benchmark( + self, + **kwargs, + ): """ - Benchmark a model on all export formats. + Benchmarks the model across various export formats to evaluate performance. + + This method assesses the model's performance in different export formats, such as ONNX, TorchScript, etc. + It uses the 'benchmark' function from the ultralytics.utils.benchmarks module. The benchmarking is configured + using a combination of default configuration values, model-specific arguments, method-specific defaults, and + any additional user-provided keyword arguments. + + The method supports various arguments that allow customization of the benchmarking process, such as dataset + choice, image size, precision modes, device selection, and verbosity. For a comprehensive list of all + configurable options, users should refer to the 'configuration' section in the documentation. Args: - **kwargs : Any other args accepted by the validators. To see all args check 'configuration' section in docs + **kwargs (any): Arbitrary keyword arguments to customize the benchmarking process. These are combined with + default configurations, model-specific arguments, and method defaults. + + Returns: + (dict): A dictionary containing the results of the benchmarking process. + + Raises: + AssertionError: If the model is not a PyTorch model. """ self._check_is_pytorch_model() from ultralytics.utils.benchmarks import benchmark @@ -333,12 +558,29 @@ def benchmark(self, **kwargs): verbose=kwargs.get("verbose"), ) - def export(self, **kwargs): + def export( + self, + **kwargs, + ): """ - Export model. + Exports the model to a different format suitable for deployment. + + This method facilitates the export of the model to various formats (e.g., ONNX, TorchScript) for deployment + purposes. It uses the 'Exporter' class for the export process, combining model-specific overrides, method + defaults, and any additional arguments provided. The combined arguments are used to configure export settings. + + The method supports a wide range of arguments to customize the export process. For a comprehensive list of all + possible arguments, refer to the 'configuration' section in the documentation. Args: - **kwargs : Any other args accepted by the Exporter. To see all args check 'configuration' section in docs. + **kwargs (any): Arbitrary keyword arguments to customize the export process. These are combined with the + model's overrides and method defaults. + + Returns: + (object): The exported model in the specified format, or an object related to the export process. + + Raises: + AssertionError: If the model is not a PyTorch model. """ self._check_is_pytorch_model() from .exporter import Exporter @@ -347,13 +589,37 @@ def export(self, **kwargs): args = {**self.overrides, **custom, **kwargs, "mode": "export"} # highest priority args on the right return Exporter(overrides=args, _callbacks=self.callbacks)(model=self.model) - def train(self, trainer=None, **kwargs): + def train( + self, + trainer=None, + **kwargs, + ): """ - Trains the model on a given dataset. + Trains the model using the specified dataset and training configuration. + + This method facilitates model training with a range of customizable settings and configurations. It supports + training with a custom trainer or the default training approach defined in the method. The method handles + different scenarios, such as resuming training from a checkpoint, integrating with Ultralytics HUB, and + updating model and configuration after training. + + When using Ultralytics HUB, if the session already has a loaded model, the method prioritizes HUB training + arguments and issues a warning if local arguments are provided. It checks for pip updates and combines default + configurations, method-specific defaults, and user-provided arguments to configure the training process. After + training, it updates the model and its configurations, and optionally attaches metrics. Args: - trainer (BaseTrainer, optional): Customized trainer. - **kwargs (Any): Any number of arguments representing the training configuration. + trainer (BaseTrainer, optional): An instance of a custom trainer class for training the model. If None, the + method uses a default trainer. Defaults to None. + **kwargs (any): Arbitrary keyword arguments representing the training configuration. These arguments are + used to customize various aspects of the training process. + + Returns: + (dict | None): Training metrics if available and training is successful; otherwise, None. + + Raises: + AssertionError: If the model is not a PyTorch model. + PermissionError: If there is a permission issue with the HUB session. + ModuleNotFoundError: If the HUB SDK is not installed. """ self._check_is_pytorch_model() if hasattr(self.session, "model") and self.session.model.id: # Ultralytics HUB session with loaded model @@ -397,12 +663,32 @@ def train(self, trainer=None, **kwargs): self.metrics = getattr(self.trainer.validator, "metrics", None) # TODO: no metrics returned by DDP return self.metrics - def tune(self, use_ray=False, iterations=10, *args, **kwargs): + def tune( + self, + use_ray=False, + iterations=10, + *args, + **kwargs, + ): """ - Runs hyperparameter tuning, optionally using Ray Tune. See ultralytics.utils.tuner.run_ray_tune for Args. + Conducts hyperparameter tuning for the model, with an option to use Ray Tune. + + This method supports two modes of hyperparameter tuning: using Ray Tune or a custom tuning method. + When Ray Tune is enabled, it leverages the 'run_ray_tune' function from the ultralytics.utils.tuner module. + Otherwise, it uses the internal 'Tuner' class for tuning. The method combines default, overridden, and + custom arguments to configure the tuning process. + + Args: + use_ray (bool): If True, uses Ray Tune for hyperparameter tuning. Defaults to False. + iterations (int): The number of tuning iterations to perform. Defaults to 10. + *args (list): Variable length argument list for additional arguments. + **kwargs (any): Arbitrary keyword arguments. These are combined with the model's overrides and defaults. Returns: (dict): A dictionary containing the results of the hyperparameter search. + + Raises: + AssertionError: If the model is not a PyTorch model. """ self._check_is_pytorch_model() if use_ray: @@ -416,7 +702,7 @@ def tune(self, use_ray=False, iterations=10, *args, **kwargs): args = {**self.overrides, **custom, **kwargs, "mode": "train"} # highest priority args on the right return Tuner(args=args, _callbacks=self.callbacks)(model=self, iterations=iterations) - def _apply(self, fn): + def _apply(self, fn) -> "Model": """Apply to(), cpu(), cuda(), half(), float() to model tensors that are not parameters or registered buffers.""" self._check_is_pytorch_model() self = super()._apply(fn) # noqa @@ -425,37 +711,87 @@ def _apply(self, fn): return self @property - def names(self): - """Returns class names of the loaded model.""" + def names(self) -> list: + """ + Retrieves the class names associated with the loaded model. + + This property returns the class names if they are defined in the model. It checks the class names for validity + using the 'check_class_names' function from the ultralytics.nn.autobackend module. + + Returns: + (list | None): The class names of the model if available, otherwise None. + """ from ultralytics.nn.autobackend import check_class_names return check_class_names(self.model.names) if hasattr(self.model, "names") else None @property - def device(self): - """Returns device if PyTorch model.""" + def device(self) -> torch.device: + """ + Retrieves the device on which the model's parameters are allocated. + + This property is used to determine whether the model's parameters are on CPU or GPU. It only applies to models + that are instances of nn.Module. + + Returns: + (torch.device | None): The device (CPU/GPU) of the model if it is a PyTorch model, otherwise None. + """ return next(self.model.parameters()).device if isinstance(self.model, nn.Module) else None @property def transforms(self): - """Returns transform of the loaded model.""" + """ + Retrieves the transformations applied to the input data of the loaded model. + + This property returns the transformations if they are defined in the model. + + Returns: + (object | None): The transform object of the model if available, otherwise None. + """ return self.model.transforms if hasattr(self.model, "transforms") else None - def add_callback(self, event: str, func): - """Add a callback.""" + def add_callback(self, event: str, func) -> None: + """ + Adds a callback function for a specified event. + + This method allows the user to register a custom callback function that is triggered on a specific event during + model training or inference. + + Args: + event (str): The name of the event to attach the callback to. + func (callable): The callback function to be registered. + + Raises: + ValueError: If the event name is not recognized. + """ self.callbacks[event].append(func) - def clear_callback(self, event: str): - """Clear all event callbacks.""" + def clear_callback(self, event: str) -> None: + """ + Clears all callback functions registered for a specified event. + + This method removes all custom and default callback functions associated with the given event. + + Args: + event (str): The name of the event for which to clear the callbacks. + + Raises: + ValueError: If the event name is not recognized. + """ self.callbacks[event] = [] - def reset_callbacks(self): - """Reset all registered callbacks.""" + def reset_callbacks(self) -> None: + """ + Resets all callbacks to their default functions. + + This method reinstates the default callback functions for all events, removing any custom callbacks that were + added previously. + """ for event in callbacks.default_callbacks.keys(): self.callbacks[event] = [callbacks.default_callbacks[event][0]] @staticmethod - def _reset_ckpt_args(args): + def _reset_ckpt_args(args: dict) -> dict: """Reset arguments when loading a PyTorch model.""" include = {"imgsz", "data", "task", "single_cls"} # only remember these arguments when loading a PyTorch model return {k: v for k, v in args.items() if k in include} @@ -465,7 +801,7 @@ def _reset_ckpt_args(args): # name = self.__class__.__name__ # raise AttributeError(f"'{name}' object has no attribute '{attr}'. See valid attributes below.\n{self.__doc__}") - def _smart_load(self, key): + def _smart_load(self, key: str): """Load model/trainer/validator/predictor.""" try: return self.task_map[self.task][key] @@ -477,7 +813,7 @@ def _smart_load(self, key): ) from e @property - def task_map(self): + def task_map(self) -> dict: """ Map head to model, trainer, validator, and predictor classes. diff --git a/ultralytics/engine/predictor.py b/ultralytics/engine/predictor.py index 28b15c2f4f3..921f273f681 100644 --- a/ultralytics/engine/predictor.py +++ b/ultralytics/engine/predictor.py @@ -26,8 +26,11 @@ yolov8n.tflite # TensorFlow Lite yolov8n_edgetpu.tflite # TensorFlow Edge TPU yolov8n_paddle_model # PaddlePaddle + yolov8n_ncnn_model # NCNN """ + import platform +import re import threading from pathlib import Path @@ -71,9 +74,7 @@ class BasePredictor: data (dict): Data configuration. device (torch.device): Device used for prediction. dataset (Dataset): Dataset used for prediction. - vid_path (str): Path to video file. - vid_writer (cv2.VideoWriter): Video writer for saving video output. - data_path (str): Path to data. + vid_writer (dict): Dictionary of {save_path: video_writer, ...} writer for saving video output. """ def __init__(self, cfg=DEFAULT_CFG, overrides=None, _callbacks=None): @@ -98,10 +99,11 @@ def __init__(self, cfg=DEFAULT_CFG, overrides=None, _callbacks=None): self.imgsz = None self.device = None self.dataset = None - self.vid_path, self.vid_writer, self.vid_frame = None, None, None + self.vid_writer = {} # dict of {save_path: video_writer, ...} self.plotted_img = None - self.data_path = None self.source_type = None + self.seen = 0 + self.windows = [] self.batch = None self.results = None self.transforms = None @@ -149,48 +151,10 @@ def pre_transform(self, im): Returns: (list): A list of transformed images. """ - same_shapes = all(x.shape == im[0].shape for x in im) + same_shapes = len({x.shape for x in im}) == 1 letterbox = LetterBox(self.imgsz, auto=same_shapes and self.model.pt, stride=self.model.stride) return [letterbox(image=x) for x in im] - def write_results(self, idx, results, batch): - """Write inference results to a file or directory.""" - p, im, _ = batch - log_string = "" - if len(im.shape) == 3: - im = im[None] # expand for batch dim - if self.source_type.webcam or self.source_type.from_img or self.source_type.tensor: # batch_size >= 1 - log_string += f"{idx}: " - frame = self.dataset.count - else: - frame = getattr(self.dataset, "frame", 0) - self.data_path = p - self.txt_path = str(self.save_dir / "labels" / p.stem) + ("" if self.dataset.mode == "image" else f"_{frame}") - log_string += "%gx%g " % im.shape[2:] # print string - result = results[idx] - log_string += result.verbose() - - if self.args.save or self.args.show: # Add bbox to image - plot_args = { - "line_width": self.args.line_width, - "boxes": self.args.show_boxes, - "conf": self.args.show_conf, - "labels": self.args.show_labels, - } - if not self.args.retina_masks: - plot_args["im_gpu"] = im[idx] - self.plotted_img = result.plot(**plot_args) - # Write - if self.args.save_txt: - result.save_txt(f"{self.txt_path}.txt", save_conf=self.args.save_conf) - if self.args.save_crop: - result.save_crop( - save_dir=self.save_dir / "crops", - file_name=self.data_path.stem + ("" if self.dataset.mode == "image" else f"_{frame}"), - ) - - return log_string - def postprocess(self, preds, img, orig_imgs): """Post-processes predictions for an image and returns them.""" return preds @@ -226,18 +190,20 @@ def setup_source(self, source): else None ) self.dataset = load_inference_source( - source=source, vid_stride=self.args.vid_stride, buffer=self.args.stream_buffer + source=source, + batch=self.args.batch, + vid_stride=self.args.vid_stride, + buffer=self.args.stream_buffer, ) self.source_type = self.dataset.source_type if not getattr(self, "stream", True) and ( - self.dataset.mode == "stream" # streams - or len(self.dataset) > 1000 # images + self.source_type.stream + or self.source_type.screenshot + or len(self.dataset) > 1000 # many images or any(getattr(self.dataset, "video_flag", [False])) ): # videos LOGGER.warning(STREAM_WARNING) - self.vid_path = [None] * self.dataset.bs - self.vid_writer = [None] * self.dataset.bs - self.vid_frame = [None] * self.dataset.bs + self.vid_writer = {} @smart_inference_mode() def stream_inference(self, source=None, model=None, *args, **kwargs): @@ -269,10 +235,9 @@ def stream_inference(self, source=None, model=None, *args, **kwargs): ops.Profile(device=self.device), ) self.run_callbacks("on_predict_start") - for batch in self.dataset: + for self.batch in self.dataset: self.run_callbacks("on_predict_batch_start") - self.batch = batch - path, im0s, vid_cap, s = batch + paths, im0s, s = self.batch # Preprocess with profilers[0]: @@ -288,8 +253,8 @@ def stream_inference(self, source=None, model=None, *args, **kwargs): # Postprocess with profilers[2]: self.results = self.postprocess(preds, im, im0s) - self.run_callbacks("on_predict_postprocess_end") + # Visualize, save, write results n = len(im0s) for i in range(n): @@ -299,51 +264,43 @@ def stream_inference(self, source=None, model=None, *args, **kwargs): "inference": profilers[1].dt * 1e3 / n, "postprocess": profilers[2].dt * 1e3 / n, } - p, im0 = path[i], None if self.source_type.tensor else im0s[i].copy() - p = Path(p) - if self.args.verbose or self.args.save or self.args.save_txt or self.args.show: - s += self.write_results(i, self.results, (p, im, im0)) - if self.args.save or self.args.save_txt: - self.results[i].save_dir = self.save_dir.__str__() - if self.args.show and self.plotted_img is not None: - self.show(p) - if self.args.save and self.plotted_img is not None: - self.save_preds(vid_cap, i, str(self.save_dir / p.name)) + s[i] += self.write_results(i, Path(paths[i]), im, s) + + # Print batch results + if self.args.verbose: + LOGGER.info("\n".join(s)) self.run_callbacks("on_predict_batch_end") yield from self.results - # Print time (inference-only) - if self.args.verbose: - LOGGER.info(f"{s}{profilers[1].dt * 1E3:.1f}ms") - # Release assets - if isinstance(self.vid_writer[-1], cv2.VideoWriter): - self.vid_writer[-1].release() # release final video writer + for v in self.vid_writer.values(): + if isinstance(v, cv2.VideoWriter): + v.release() - # Print results + # Print final results if self.args.verbose and self.seen: t = tuple(x.t / self.seen * 1e3 for x in profilers) # speeds per image LOGGER.info( f"Speed: %.1fms preprocess, %.1fms inference, %.1fms postprocess per image at shape " - f"{(1, 3, *im.shape[2:])}" % t + f"{(min(self.args.batch, self.seen), 3, *im.shape[2:])}" % t ) if self.args.save or self.args.save_txt or self.args.save_crop: nl = len(list(self.save_dir.glob("labels/*.txt"))) # number of labels s = f"\n{nl} label{'s' * (nl > 1)} saved to {self.save_dir / 'labels'}" if self.args.save_txt else "" LOGGER.info(f"Results saved to {colorstr('bold', self.save_dir)}{s}") - self.run_callbacks("on_predict_end") def setup_model(self, model, verbose=True): """Initialize YOLO model with given parameters and set it to evaluation mode.""" self.model = AutoBackend( - model or self.args.model, + weights=model or self.args.model, device=select_device(self.args.device, verbose=verbose), dnn=self.args.dnn, data=self.args.data, fp16=self.args.half, + batch=self.args.batch, fuse=True, verbose=verbose, ) @@ -352,48 +309,83 @@ def setup_model(self, model, verbose=True): self.args.half = self.model.fp16 # update half self.model.eval() - def show(self, p): - """Display an image in a window using OpenCV imshow().""" - im0 = self.plotted_img - if platform.system() == "Linux" and p not in self.windows: - self.windows.append(p) - cv2.namedWindow(str(p), cv2.WINDOW_NORMAL | cv2.WINDOW_KEEPRATIO) # allow window resize (Linux) - cv2.resizeWindow(str(p), im0.shape[1], im0.shape[0]) - cv2.imshow(str(p), im0) - cv2.waitKey(500 if self.batch[3].startswith("image") else 1) # 1 millisecond + def write_results(self, i, p, im, s): + """Write inference results to a file or directory.""" + string = "" # print string + if len(im.shape) == 3: + im = im[None] # expand for batch dim + if self.source_type.stream or self.source_type.from_img or self.source_type.tensor: # batch_size >= 1 + string += f"{i}: " + frame = self.dataset.count + else: + match = re.search(r"frame (\d+)/", s[i]) + frame = int(match.group(1)) if match else None # 0 if frame undetermined + + self.txt_path = self.save_dir / "labels" / (p.stem + ("" if self.dataset.mode == "image" else f"_{frame}")) + string += "%gx%g " % im.shape[2:] + result = self.results[i] + result.save_dir = self.save_dir.__str__() # used in other locations + string += result.verbose() + f"{result.speed['inference']:.1f}ms" + + # Add predictions to image + if self.args.save or self.args.show: + self.plotted_img = result.plot( + line_width=self.args.line_width, + boxes=self.args.show_boxes, + conf=self.args.show_conf, + labels=self.args.show_labels, + im_gpu=None if self.args.retina_masks else im[i], + ) - def save_preds(self, vid_cap, idx, save_path): + # Save results + if self.args.save_txt: + result.save_txt(f"{self.txt_path}.txt", save_conf=self.args.save_conf) + if self.args.save_crop: + result.save_crop(save_dir=self.save_dir / "crops", file_name=self.txt_path.stem) + if self.args.show: + self.show(str(p)) + if self.args.save: + self.save_predicted_images(str(self.save_dir / p.name), frame) + + return string + + def save_predicted_images(self, save_path="", frame=0): """Save video predictions as mp4 at specified path.""" - im0 = self.plotted_img - # Save imgs - if self.dataset.mode == "image": - cv2.imwrite(save_path, im0) - else: # 'video' or 'stream' + im = self.plotted_img + + # Save videos and streams + if self.dataset.mode in {"stream", "video"}: + fps = self.dataset.fps if self.dataset.mode == "video" else 30 frames_path = f'{save_path.split(".", 1)[0]}_frames/' - if self.vid_path[idx] != save_path: # new video - self.vid_path[idx] = save_path + if save_path not in self.vid_writer: # new video if self.args.save_frames: Path(frames_path).mkdir(parents=True, exist_ok=True) - self.vid_frame[idx] = 0 - if isinstance(self.vid_writer[idx], cv2.VideoWriter): - self.vid_writer[idx].release() # release previous video writer - if vid_cap: # video - fps = int(vid_cap.get(cv2.CAP_PROP_FPS)) # integer required, floats produce error in MP4 codec - w = int(vid_cap.get(cv2.CAP_PROP_FRAME_WIDTH)) - h = int(vid_cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) - else: # stream - fps, w, h = 30, im0.shape[1], im0.shape[0] suffix, fourcc = (".mp4", "avc1") if MACOS else (".avi", "WMV2") if WINDOWS else (".avi", "MJPG") - self.vid_writer[idx] = cv2.VideoWriter( - str(Path(save_path).with_suffix(suffix)), cv2.VideoWriter_fourcc(*fourcc), fps, (w, h) + self.vid_writer[save_path] = cv2.VideoWriter( + filename=str(Path(save_path).with_suffix(suffix)), + fourcc=cv2.VideoWriter_fourcc(*fourcc), + fps=fps, # integer required, floats produce error in MP4 codec + frameSize=(im.shape[1], im.shape[0]), # (width, height) ) - # Write video - self.vid_writer[idx].write(im0) - # Write frame + # Save video + self.vid_writer[save_path].write(im) if self.args.save_frames: - cv2.imwrite(f"{frames_path}{self.vid_frame[idx]}.jpg", im0) - self.vid_frame[idx] += 1 + cv2.imwrite(f"{frames_path}{frame}.jpg", im) + + # Save images + else: + cv2.imwrite(save_path, im) + + def show(self, p=""): + """Display an image in a window using OpenCV imshow().""" + im = self.plotted_img + if platform.system() == "Linux" and p not in self.windows: + self.windows.append(p) + cv2.namedWindow(p, cv2.WINDOW_NORMAL | cv2.WINDOW_KEEPRATIO) # allow window resize (Linux) + cv2.resizeWindow(p, im.shape[1], im.shape[0]) # (width, height) + cv2.imshow(p, im) + cv2.waitKey(300 if self.dataset.mode == "image" else 1) # 1 millisecond def run_callbacks(self, event: str): """Runs all registered callbacks for a specific event.""" diff --git a/ultralytics/engine/results.py b/ultralytics/engine/results.py index 4faaeb99ab5..85849c34d08 100644 --- a/ultralytics/engine/results.py +++ b/ultralytics/engine/results.py @@ -67,30 +67,47 @@ class Results(SimpleClass): """ A class for storing and manipulating inference results. - Args: - orig_img (numpy.ndarray): The original image as a numpy array. - path (str): The path to the image file. - names (dict): A dictionary of class names. - boxes (torch.tensor, optional): A 2D tensor of bounding box coordinates for each detection. - masks (torch.tensor, optional): A 3D tensor of detection masks, where each mask is a binary image. - probs (torch.tensor, optional): A 1D tensor of probabilities of each class for classification task. - keypoints (List[List[float]], optional): A list of detected keypoints for each object. - Attributes: - orig_img (numpy.ndarray): The original image as a numpy array. - orig_shape (tuple): The original image shape in (height, width) format. - boxes (Boxes, optional): A Boxes object containing the detection bounding boxes. - masks (Masks, optional): A Masks object containing the detection masks. - probs (Probs, optional): A Probs object containing probabilities of each class for classification task. - keypoints (Keypoints, optional): A Keypoints object containing detected keypoints for each object. - speed (dict): A dictionary of preprocess, inference, and postprocess speeds in milliseconds per image. - names (dict): A dictionary of class names. - path (str): The path to the image file. - _keys (tuple): A tuple of attribute names for non-empty attributes. + orig_img (numpy.ndarray): Original image as a numpy array. + orig_shape (tuple): Original image shape in (height, width) format. + boxes (Boxes, optional): Object containing detection bounding boxes. + masks (Masks, optional): Object containing detection masks. + probs (Probs, optional): Object containing class probabilities for classification tasks. + keypoints (Keypoints, optional): Object containing detected keypoints for each object. + speed (dict): Dictionary of preprocess, inference, and postprocess speeds (ms/image). + names (dict): Dictionary of class names. + path (str): Path to the image file. + + Methods: + update(boxes=None, masks=None, probs=None, obb=None): Updates object attributes with new detection results. + cpu(): Returns a copy of the Results object with all tensors on CPU memory. + numpy(): Returns a copy of the Results object with all tensors as numpy arrays. + cuda(): Returns a copy of the Results object with all tensors on GPU memory. + to(*args, **kwargs): Returns a copy of the Results object with tensors on a specified device and dtype. + new(): Returns a new Results object with the same image, path, and names. + plot(...): Plots detection results on an input image, returning an annotated image. + show(): Show annotated results to screen. + save(filename): Save annotated results to file. + verbose(): Returns a log string for each task, detailing detections and classifications. + save_txt(txt_file, save_conf=False): Saves detection results to a text file. + save_crop(save_dir, file_name=Path("im.jpg")): Saves cropped detection images. + tojson(normalize=False): Converts detection results to JSON format. """ def __init__(self, orig_img, path, names, boxes=None, masks=None, probs=None, keypoints=None, obb=None) -> None: - """Initialize the Results class.""" + """ + Initialize the Results class. + + Args: + orig_img (numpy.ndarray): The original image as a numpy array. + path (str): The path to the image file. + names (dict): A dictionary of class names. + boxes (torch.tensor, optional): A 2D tensor of bounding box coordinates for each detection. + masks (torch.tensor, optional): A 3D tensor of detection masks, where each mask is a binary image. + probs (torch.tensor, optional): A 1D tensor of probabilities of each class for classification task. + keypoints (torch.tensor, optional): A 2D tensor of keypoint coordinates for each detection. + obb (torch.tensor, optional): A 2D tensor of oriented bounding box coordinates for each detection. + """ self.orig_img = orig_img self.orig_shape = orig_img.shape[:2] self.boxes = Boxes(boxes, self.orig_shape) if boxes is not None else None # native size boxes @@ -181,6 +198,9 @@ def plot( boxes=True, masks=True, probs=True, + show=False, + save=False, + filename=None, ): """ Plots the detection results on an input RGB image. Accepts a numpy array (cv2) or a PIL Image. @@ -199,6 +219,9 @@ def plot( boxes (bool): Whether to plot the bounding boxes. masks (bool): Whether to plot the masks. probs (bool): Whether to plot classification probability + show (bool): Whether to display the annotated image directly. + save (bool): Whether to save the annotated image to `filename`. + filename (str): Filename to save image to if save is True. Returns: (numpy.ndarray): A numpy array of the annotated image. @@ -268,8 +291,27 @@ def plot( for k in reversed(self.keypoints.data): annotator.kpts(k, self.orig_shape, radius=kpt_radius, kpt_line=kpt_line) + # Show results + if show: + annotator.show(self.path) + + # Save results + if save: + annotator.save(filename) + return annotator.result() + def show(self, *args, **kwargs): + """Show annotated results image.""" + self.plot(show=True, *args, **kwargs) + + def save(self, filename=None, *args, **kwargs): + """Save annotated results image.""" + if not filename: + filename = f"results_{Path(self.path).name}" + self.plot(save=True, filename=filename, *args, **kwargs) + return filename + def verbose(self): """Return log string for each task.""" log_string = "" @@ -343,67 +385,88 @@ def save_crop(self, save_dir, file_name=Path("im.jpg")): BGR=True, ) - def tojson(self, normalize=False): - """Convert the object to JSON format.""" + def summary(self, normalize=False, decimals=5): + """Convert the results to a summarized format.""" if self.probs is not None: - LOGGER.warning("Warning: Classify task do not support `tojson` yet.") + LOGGER.warning("Warning: Classify results do not support the `summary()` method yet.") return - import json - # Create list of detection dictionaries results = [] data = self.boxes.data.cpu().tolist() h, w = self.orig_shape if normalize else (1, 1) for i, row in enumerate(data): # xyxy, track_id if tracking, conf, class_id - box = {"x1": row[0] / w, "y1": row[1] / h, "x2": row[2] / w, "y2": row[3] / h} - conf = row[-2] + box = { + "x1": round(row[0] / w, decimals), + "y1": round(row[1] / h, decimals), + "x2": round(row[2] / w, decimals), + "y2": round(row[3] / h, decimals), + } + conf = round(row[-2], decimals) class_id = int(row[-1]) - name = self.names[class_id] - result = {"name": name, "class": class_id, "confidence": conf, "box": box} + result = {"name": self.names[class_id], "class": class_id, "confidence": conf, "box": box} if self.boxes.is_track: result["track_id"] = int(row[-3]) # track ID if self.masks: - x, y = self.masks.xy[i][:, 0], self.masks.xy[i][:, 1] # numpy array - result["segments"] = {"x": (x / w).tolist(), "y": (y / h).tolist()} + result["segments"] = { + "x": (self.masks.xy[i][:, 0] / w).round(decimals).tolist(), + "y": (self.masks.xy[i][:, 1] / h).round(decimals).tolist(), + } if self.keypoints is not None: x, y, visible = self.keypoints[i].data[0].cpu().unbind(dim=1) # torch Tensor - result["keypoints"] = {"x": (x / w).tolist(), "y": (y / h).tolist(), "visible": visible.tolist()} + result["keypoints"] = { + "x": (x / w).numpy().round(decimals).tolist(), # decimals named argument required + "y": (y / h).numpy().round(decimals).tolist(), + "visible": visible.numpy().round(decimals).tolist(), + } results.append(result) - # Convert detections to JSON - return json.dumps(results, indent=2) + return results + + def tojson(self, normalize=False, decimals=5): + """Convert the results to JSON format.""" + import json + + return json.dumps(self.summary(normalize=normalize, decimals=decimals), indent=2) class Boxes(BaseTensor): """ - A class for storing and manipulating detection boxes. - - Args: - boxes (torch.Tensor | numpy.ndarray): A tensor or numpy array containing the detection boxes, - with shape (num_boxes, 6) or (num_boxes, 7). The last two columns contain confidence and class values. - If present, the third last column contains track IDs. - orig_shape (tuple): Original image size, in the format (height, width). + Manages detection boxes, providing easy access and manipulation of box coordinates, confidence scores, class + identifiers, and optional tracking IDs. Supports multiple formats for box coordinates, including both absolute and + normalized forms. Attributes: - xyxy (torch.Tensor | numpy.ndarray): The boxes in xyxy format. - conf (torch.Tensor | numpy.ndarray): The confidence values of the boxes. - cls (torch.Tensor | numpy.ndarray): The class values of the boxes. - id (torch.Tensor | numpy.ndarray): The track IDs of the boxes (if available). - xywh (torch.Tensor | numpy.ndarray): The boxes in xywh format. - xyxyn (torch.Tensor | numpy.ndarray): The boxes in xyxy format normalized by original image size. - xywhn (torch.Tensor | numpy.ndarray): The boxes in xywh format normalized by original image size. - data (torch.Tensor): The raw bboxes tensor (alias for `boxes`). + data (torch.Tensor): The raw tensor containing detection boxes and their associated data. + orig_shape (tuple): The original image size as a tuple (height, width), used for normalization. + is_track (bool): Indicates whether tracking IDs are included in the box data. + + Properties: + xyxy (torch.Tensor | numpy.ndarray): Boxes in [x1, y1, x2, y2] format. + conf (torch.Tensor | numpy.ndarray): Confidence scores for each box. + cls (torch.Tensor | numpy.ndarray): Class labels for each box. + id (torch.Tensor | numpy.ndarray, optional): Tracking IDs for each box, if available. + xywh (torch.Tensor | numpy.ndarray): Boxes in [x, y, width, height] format, calculated on demand. + xyxyn (torch.Tensor | numpy.ndarray): Normalized [x1, y1, x2, y2] boxes, relative to `orig_shape`. + xywhn (torch.Tensor | numpy.ndarray): Normalized [x, y, width, height] boxes, relative to `orig_shape`. Methods: - cpu(): Move the object to CPU memory. - numpy(): Convert the object to a numpy array. - cuda(): Move the object to CUDA memory. - to(*args, **kwargs): Move the object to the specified device. + cpu(): Moves the boxes to CPU memory. + numpy(): Converts the boxes to a numpy array format. + cuda(): Moves the boxes to CUDA (GPU) memory. + to(device, dtype=None): Moves the boxes to the specified device. """ def __init__(self, boxes, orig_shape) -> None: - """Initialize the Boxes class.""" + """ + Initialize the Boxes class. + + Args: + boxes (torch.Tensor | numpy.ndarray): A tensor or numpy array containing the detection boxes, with + shape (num_boxes, 6) or (num_boxes, 7). The last two columns contain confidence and class values. + If present, the third last column contains track IDs. + orig_shape (tuple): Original image size, in the format (height, width). + """ if boxes.ndim == 1: boxes = boxes[None, :] n = boxes.shape[-1] @@ -607,7 +670,7 @@ class OBB(BaseTensor): conf (torch.Tensor | numpy.ndarray): The confidence values of the boxes. cls (torch.Tensor | numpy.ndarray): The class values of the boxes. id (torch.Tensor | numpy.ndarray): The track IDs of the boxes (if available). - xyxyxyxyn (torch.Tensor | numpy.ndarray): The rotated boxes in xyxyxyxy format normalized by original image size. + xyxyxyxyn (torch.Tensor | numpy.ndarray): The rotated boxes in xyxyxyxy format normalized by orig image size. xyxyxyxy (torch.Tensor | numpy.ndarray): The rotated boxes in xyxyxyxy format. xyxy (torch.Tensor | numpy.ndarray): The horizontal boxes in xyxyxyxy format. data (torch.Tensor): The raw OBB tensor (alias for `boxes`). @@ -661,14 +724,17 @@ def xyxyxyxyn(self): """Return the boxes in xyxyxyxy format, (N, 4, 2).""" xyxyxyxyn = self.xyxyxyxy.clone() if isinstance(self.xyxyxyxy, torch.Tensor) else np.copy(self.xyxyxyxy) xyxyxyxyn[..., 0] /= self.orig_shape[1] - xyxyxyxyn[..., 1] /= self.orig_shape[1] + xyxyxyxyn[..., 1] /= self.orig_shape[0] return xyxyxyxyn @property @lru_cache(maxsize=2) def xyxy(self): - """Return the horizontal boxes in xyxy format, (N, 4).""" - # This way to fit both torch and numpy version + """ + Return the horizontal boxes in xyxy format, (N, 4). + + Accepts both torch and numpy boxes. + """ x1 = self.xyxyxyxy[..., 0].min(1).values x2 = self.xyxyxyxy[..., 0].max(1).values y1 = self.xyxyxyxy[..., 1].min(1).values diff --git a/ultralytics/engine/trainer.py b/ultralytics/engine/trainer.py index 75b3ea3f10a..29d6f1d02f6 100644 --- a/ultralytics/engine/trainer.py +++ b/ultralytics/engine/trainer.py @@ -129,7 +129,12 @@ def __init__(self, cfg=DEFAULT_CFG, overrides=None, _callbacks=None): try: if self.args.task == "classify": self.data = check_cls_dataset(self.args.data) - elif self.args.data.split(".")[-1] in ("yaml", "yml") or self.args.task in ("detect", "segment", "pose"): + elif self.args.data.split(".")[-1] in ("yaml", "yml") or self.args.task in ( + "detect", + "segment", + "pose", + "obb", + ): self.data = check_det_dataset(self.args.data) if "yaml_file" in self.data: self.args.data = self.data["yaml_file"] # for validating 'yolo train data=url.zip' usage @@ -252,7 +257,7 @@ def _setup_train(self, world_size): if any(x in k for x in freeze_layer_names): LOGGER.info(f"Freezing layer '{k}'") v.requires_grad = False - elif not v.requires_grad: + elif not v.requires_grad and v.dtype.is_floating_point: # only floating point Tensor can require gradients LOGGER.info( f"WARNING ⚠️ setting 'requires_grad=True' for frozen layer '{k}'. " "See ultralytics.engine.trainer for customization of frozen layers." @@ -275,7 +280,7 @@ def _setup_train(self, world_size): # Check imgsz gs = max(int(self.model.stride.max() if hasattr(self.model, "stride") else 32), 32) # grid size (max stride) self.args.imgsz = check_imgsz(self.args.imgsz, stride=gs, floor=gs, max_dim=1) - self.stride = gs # for multi-scale training + self.stride = gs # for multiscale training # Batch size if self.batch_size == -1 and RANK == -1: # single-GPU only, estimate best batch size @@ -285,7 +290,7 @@ def _setup_train(self, world_size): batch_size = self.batch_size // max(world_size, 1) self.train_loader = self.get_dataloader(self.trainset, batch_size=batch_size, rank=RANK, mode="train") if RANK in (-1, 0): - # NOTE: When training DOTA dataset, double batch size could get OOM cause some images got more than 2000 objects. + # Note: When training DOTA dataset, double batch size could get OOM on images with >2000 objects. self.test_loader = self.get_dataloader( self.testset, batch_size=batch_size if self.args.task == "obb" else batch_size * 2, rank=-1, mode="val" ) @@ -337,8 +342,8 @@ def _do_train(self, world_size=1): if self.args.close_mosaic: base_idx = (self.epochs - self.args.close_mosaic) * nb self.plot_idx.extend([base_idx, base_idx + 1, base_idx + 2]) - epoch = self.epochs # predefine for resume fully trained model edge cases - for epoch in range(self.start_epoch, self.epochs): + epoch = self.start_epoch + while True: self.epoch = epoch self.run_callbacks("on_train_epoch_start") self.model.train() @@ -400,7 +405,7 @@ def _do_train(self, world_size=1): # Log mem = f"{torch.cuda.memory_reserved() / 1E9 if torch.cuda.is_available() else 0:.3g}G" # (GB) - loss_len = self.tloss.shape[0] if len(self.tloss.size()) else 1 + loss_len = self.tloss.shape[0] if len(self.tloss.shape) else 1 losses = self.tloss if loss_len > 1 else torch.unsqueeze(self.tloss, 0) if RANK in (-1, 0): pbar.set_description( @@ -423,7 +428,7 @@ def _do_train(self, world_size=1): if self.args.val or final_epoch or self.stopper.possible_stop or self.stop: self.metrics, self.fitness = self.validate() self.save_metrics(metrics={**self.label_loss_items(self.tloss), **self.metrics, **self.lr}) - self.stop |= self.stopper(epoch + 1, self.fitness) + self.stop |= self.stopper(epoch + 1, self.fitness) or final_epoch if self.args.time: self.stop |= (time.time() - self.train_time_start) > (self.args.time * 3600) @@ -455,6 +460,7 @@ def _do_train(self, world_size=1): self.stop = broadcast_list[0] if self.stop: break # must break all DDP ranks + epoch += 1 if RANK in (-1, 0): # Do final val with best.pt @@ -487,6 +493,8 @@ def save_model(self): "train_results": results, "date": datetime.now().isoformat(), "version": __version__, + "license": "AGPL-3.0 (https://ultralytics.com/license)", + "docs": "https://docs.ultralytics.com", } # Save last and best @@ -563,8 +571,12 @@ def build_dataset(self, img_path, mode="train", batch=None): raise NotImplementedError("build_dataset function not implemented in trainer") def label_loss_items(self, loss_items=None, prefix="train"): - """Returns a loss dict with labelled training loss items tensor.""" - # Not needed for classification but necessary for segmentation & detection + """ + Returns a loss dict with labelled training loss items tensor. + + Note: + This is not needed for classification but necessary for segmentation & detection + """ return {"loss": loss_items} if loss_items is not None else ["loss"] def set_model_attributes(self): diff --git a/ultralytics/engine/tuner.py b/ultralytics/engine/tuner.py index 80a554d432f..f4fe57e7aee 100644 --- a/ultralytics/engine/tuner.py +++ b/ultralytics/engine/tuner.py @@ -16,6 +16,7 @@ model.tune(data='coco8.yaml', epochs=10, iterations=300, optimizer='AdamW', plots=False, save=False, val=False) ``` """ + import random import shutil import subprocess @@ -94,6 +95,7 @@ def __init__(self, args=DEFAULT_CFG, _callbacks=None): "perspective": (0.0, 0.001), # image perspective (+/- fraction), range 0-0.001 "flipud": (0.0, 1.0), # image flip up-down (probability) "fliplr": (0.0, 1.0), # image flip left-right (probability) + "bgr": (0.0, 1.0), # image channel bgr (probability) "mosaic": (0.0, 1.0), # image mixup (probability) "mixup": (0.0, 1.0), # image mixup (probability) "copy_paste": (0.0, 1.0), # segment copy-paste (probability) @@ -187,11 +189,11 @@ def __call__(self, model=None, iterations=10, cleanup=True): train_args = {**vars(self.args), **mutated_hyp} save_dir = get_save_dir(get_cfg(train_args)) weights_dir = save_dir / "weights" - ckpt_file = weights_dir / ("best.pt" if (weights_dir / "best.pt").exists() else "last.pt") try: # Train YOLO model with mutated hyperparameters (run in subprocess to avoid dataloader hang) cmd = ["yolo", "train", *(f"{k}={v}" for k, v in train_args.items())] return_code = subprocess.run(cmd, check=True).returncode + ckpt_file = weights_dir / ("best.pt" if (weights_dir / "best.pt").exists() else "last.pt") metrics = torch.load(ckpt_file)["train_metrics"] assert return_code == 0, "training failed" diff --git a/ultralytics/engine/validator.py b/ultralytics/engine/validator.py index 94c89ebd5aa..17666e38596 100644 --- a/ultralytics/engine/validator.py +++ b/ultralytics/engine/validator.py @@ -17,7 +17,9 @@ yolov8n.tflite # TensorFlow Lite yolov8n_edgetpu.tflite # TensorFlow Edge TPU yolov8n_paddle_model # PaddlePaddle + yolov8n_ncnn_model # NCNN """ + import json import time from pathlib import Path @@ -120,7 +122,7 @@ def __call__(self, trainer=None, model=None): else: callbacks.add_integration_callbacks(self) model = AutoBackend( - model or self.args.model, + weights=model or self.args.model, device=select_device(self.args.device, self.args.batch), dnn=self.args.dnn, data=self.args.data, diff --git a/ultralytics/hub/__init__.py b/ultralytics/hub/__init__.py index 745d4a9459d..4ea2fff845c 100644 --- a/ultralytics/hub/__init__.py +++ b/ultralytics/hub/__init__.py @@ -12,15 +12,18 @@ def login(api_key: str = None, save=True) -> bool: """ Log in to the Ultralytics HUB API using the provided API key. - The session is not stored; a new session is created when needed using the saved SETTINGS or the HUB_API_KEY environment variable if successfully authenticated. + The session is not stored; a new session is created when needed using the saved SETTINGS or the HUB_API_KEY + environment variable if successfully authenticated. Args: - api_key (str, optional): The API key to use for authentication. If not provided, it will be retrieved from SETTINGS or HUB_API_KEY environment variable. + api_key (str, optional): API key to use for authentication. + If not provided, it will be retrieved from SETTINGS or HUB_API_KEY environment variable. save (bool, optional): Whether to save the API key to SETTINGS if authentication is successful. + Returns: - bool: True if authentication is successful, False otherwise. + (bool): True if authentication is successful, False otherwise. """ - checks.check_requirements("hub-sdk>=0.0.2") + checks.check_requirements("hub-sdk>=0.0.6") from hub_sdk import HUBClient api_key_url = f"{HUB_WEB_ROOT}/settings?tab=api+keys" # set the redirect URL @@ -45,7 +48,7 @@ def login(api_key: str = None, save=True) -> bool: return True else: # Failed to authenticate with HUB - LOGGER.info(f"{PREFIX}Retrieve API key from {api_key_url}") + LOGGER.info(f"{PREFIX}Get API key from {api_key_url} and then run 'yolo hub login API_KEY'") return False diff --git a/ultralytics/hub/auth.py b/ultralytics/hub/auth.py index 17bb498677d..6ede3035b7e 100644 --- a/ultralytics/hub/auth.py +++ b/ultralytics/hub/auth.py @@ -64,7 +64,7 @@ def __init__(self, api_key="", verbose=False): if verbose: LOGGER.info(f"{PREFIX}New authentication successful ✅") elif verbose: - LOGGER.info(f"{PREFIX}Retrieve API key from {API_KEY_URL}") + LOGGER.info(f"{PREFIX}Get API key from {API_KEY_URL} and then run 'yolo hub login API_KEY'") def request_api_key(self, max_attempts=3): """ @@ -87,7 +87,7 @@ def authenticate(self) -> bool: Attempt to authenticate with the server using either id_token or API key. Returns: - bool: True if authentication is successful, False otherwise. + (bool): True if authentication is successful, False otherwise. """ try: if header := self.get_auth_header(): @@ -107,7 +107,7 @@ def auth_with_cookies(self) -> bool: supported browser. Returns: - bool: True if authentication is successful, False otherwise. + (bool): True if authentication is successful, False otherwise. """ if not is_colab(): return False # Currently only works with Colab diff --git a/ultralytics/hub/session.py b/ultralytics/hub/session.py index 8a4d8c59a4b..ebde7aa30e9 100644 --- a/ultralytics/hub/session.py +++ b/ultralytics/hub/session.py @@ -52,6 +52,7 @@ def __init__(self, identifier): "heartbeat": 300.0, } # rate limits (seconds) self.metrics_queue = {} # holds metrics for each epoch until upload + self.metrics_upload_failed_queue = {} # holds metrics for each epoch if upload failed self.timers = {} # holds timers in ultralytics/utils/callbacks/hub.py # Parse input @@ -169,10 +170,19 @@ def _parse_identifier(self, identifier): return api_key, model_id, filename - def _set_train_args(self, **kwargs): - """Initializes training arguments and creates a model entry on the Ultralytics HUB.""" + def _set_train_args(self): + """ + Initializes training arguments and creates a model entry on the Ultralytics HUB. + + This method sets up training arguments based on the model's state and updates them with any additional + arguments provided. It handles different states of the model, such as whether it's resumable, pretrained, + or requires specific file setup. + + Raises: + ValueError: If the model is already trained, if required dataset information is missing, or if there are + issues with the provided training arguments. + """ if self.model.is_trained(): - # Model is already trained raise ValueError(emojis(f"Model is already trained and uploaded to {self.model_url} 🚀")) if self.model.is_resumable(): @@ -181,26 +191,16 @@ def _set_train_args(self, **kwargs): self.model_file = self.model.get_weights_url("last") else: # Model has no saved weights - def get_train_args(config): - """Parses an identifier to extract API key, model ID, and filename if applicable.""" - return { - "batch": config["batchSize"], - "epochs": config["epochs"], - "imgsz": config["imageSize"], - "patience": config["patience"], - "device": config["device"], - "cache": config["cache"], - "data": self.model.get_dataset_url(), - } - - self.train_args = get_train_args(self.model.data.get("config")) + self.train_args = self.model.data.get("train_args") # new response + # Set the model file as either a *.pt or *.yaml file self.model_file = ( self.model.get_weights_url("parent") if self.model.is_pretrained() else self.model.get_architecture() ) - if not self.train_args.get("data"): - raise ValueError("Dataset may still be processing. Please wait a minute and try again.") # RF fix + if "data" not in self.train_args: + # RF bug - datasets are sometimes not exported + raise ValueError("Dataset may still be processing. Please wait a minute and try again.") self.model_file = checks.check_yolov5u_filename(self.model_file, verbose=False) # YOLOv5->YOLOv5u self.model_id = self.model.id @@ -234,6 +234,9 @@ def retry_request(): self._show_upload_progress(progress_total, response) if HTTPStatus.OK <= response.status_code < HTTPStatus.MULTIPLE_CHOICES: + # if request related to metrics upload + if kwargs.get("metrics"): + self.metrics_upload_failed_queue = {} return response # Success, no need to retry if i == 0: @@ -249,6 +252,10 @@ def retry_request(): time.sleep(2**i) # Exponential backoff for retries + # if request related to metrics upload and exceed retries + if response is None and kwargs.get("metrics"): + self.metrics_upload_failed_queue.update(kwargs.get("metrics", None)) + return response if thread: @@ -277,7 +284,7 @@ def _get_failure_message(self, response: requests.Response, retry: int, timeout: timeout: The maximum timeout duration. Returns: - str: The retry message. + (str): The retry message. """ if self._should_retry(response.status_code): return f"Retrying {retry}x for {timeout}s." if retry else "" @@ -341,7 +348,7 @@ def _show_upload_progress(self, content_length: int, response: requests.Response response (requests.Response): The response object from the file download request. Returns: - (None) + None """ with TQDM(total=content_length, unit="B", unit_scale=True, unit_divisor=1024) as pbar: for data in response.iter_content(chunk_size=1024): diff --git a/ultralytics/hub/utils.py b/ultralytics/hub/utils.py index e870fadac52..5c0007624a0 100644 --- a/ultralytics/hub/utils.py +++ b/ultralytics/hub/utils.py @@ -84,7 +84,7 @@ def requests_with_progress(method, url, **kwargs): Args: method (str): The HTTP method to use (e.g. 'GET', 'POST'). url (str): The URL to send the request to. - **kwargs (dict): Additional keyword arguments to pass to the underlying `requests.request` function. + **kwargs (any): Additional keyword arguments to pass to the underlying `requests.request` function. Returns: (requests.Response): The response object from the HTTP request. @@ -122,7 +122,7 @@ def smart_request(method, url, retry=3, timeout=30, thread=True, code=-1, verbos code (int, optional): An identifier for the request, used for logging purposes. Default is -1. verbose (bool, optional): A flag to determine whether to print out to console or not. Default is True. progress (bool, optional): Whether to show a progress bar during the request. Default is False. - **kwargs (dict): Keyword arguments to be passed to the requests function specified in method. + **kwargs (any): Keyword arguments to be passed to the requests function specified in method. Returns: (requests.Response): The HTTP response object. If the request is executed in a separate thread, returns None. diff --git a/ultralytics/models/__init__.py b/ultralytics/models/__init__.py index ef49faffb1e..b9b6eb357ce 100644 --- a/ultralytics/models/__init__.py +++ b/ultralytics/models/__init__.py @@ -2,6 +2,6 @@ from .rtdetr import RTDETR from .sam import SAM -from .yolo import YOLO +from .yolo import YOLO, YOLOWorld -__all__ = "YOLO", "RTDETR", "SAM" # allow simpler import +__all__ = "YOLO", "RTDETR", "SAM", "YOLOWorld" # allow simpler import diff --git a/ultralytics/models/fastsam/prompt.py b/ultralytics/models/fastsam/prompt.py index 921d8322c84..f7bf5add890 100644 --- a/ultralytics/models/fastsam/prompt.py +++ b/ultralytics/models/fastsam/prompt.py @@ -31,7 +31,7 @@ def __init__(self, source, results, device="cuda") -> None: # Import and assign clip try: - import clip # for linear_assignment + import clip except ImportError: from ultralytics.utils.checks import check_requirements diff --git a/ultralytics/models/rtdetr/model.py b/ultralytics/models/rtdetr/model.py index b8def485695..440df1798fe 100644 --- a/ultralytics/models/rtdetr/model.py +++ b/ultralytics/models/rtdetr/model.py @@ -34,8 +34,6 @@ def __init__(self, model="rtdetr-l.pt") -> None: Raises: NotImplementedError: If the model file extension is not 'pt', 'yaml', or 'yml'. """ - if model and model.split(".")[-1] not in ("pt", "yaml", "yml"): - raise NotImplementedError("RT-DETR only supports creating from *.pt, *.yaml, or *.yml files.") super().__init__(model=model, task="detect") @property diff --git a/ultralytics/models/rtdetr/predict.py b/ultralytics/models/rtdetr/predict.py index 8ad92de8fe3..7fc918b0bc6 100644 --- a/ultralytics/models/rtdetr/predict.py +++ b/ultralytics/models/rtdetr/predict.py @@ -38,7 +38,7 @@ def postprocess(self, preds, img, orig_imgs): The method filters detections based on confidence and class if specified in `self.args`. Args: - preds (torch.Tensor): Raw predictions from the model. + preds (list): List of [predictions, extra] from the model. img (torch.Tensor): Processed input images. orig_imgs (list or torch.Tensor): Original, unprocessed images. @@ -46,6 +46,9 @@ def postprocess(self, preds, img, orig_imgs): (list[Results]): A list of Results objects containing the post-processed bounding boxes, confidence scores, and class labels. """ + if not isinstance(preds, (list, tuple)): # list for PyTorch inference but list[0] Tensor for export inference + preds = [preds, None] + nd = preds[0].shape[-1] bboxes, scores = preds[0].split((4, nd - 4), dim=-1) diff --git a/ultralytics/models/rtdetr/val.py b/ultralytics/models/rtdetr/val.py index 5f38f817300..88bb0aee3bc 100644 --- a/ultralytics/models/rtdetr/val.py +++ b/ultralytics/models/rtdetr/val.py @@ -94,6 +94,9 @@ def build_dataset(self, img_path, mode="val", batch=None): def postprocess(self, preds): """Apply Non-maximum suppression to prediction outputs.""" + if not isinstance(preds, (list, tuple)): # list for PyTorch inference but list[0] Tensor for export inference + preds = [preds, None] + bs, _, nd = preds[0].shape bboxes, scores = preds[0].split((4, nd - 4), dim=-1) bboxes *= self.args.imgsz diff --git a/ultralytics/models/sam/amg.py b/ultralytics/models/sam/amg.py index c4bb6d1b6f2..128108fe9c9 100644 --- a/ultralytics/models/sam/amg.py +++ b/ultralytics/models/sam/amg.py @@ -35,9 +35,11 @@ def calculate_stability_score(masks: torch.Tensor, mask_threshold: float, thresh The stability score is the IoU between the binary masks obtained by thresholding the predicted mask logits at high and low values. + + Notes: + - One mask is always contained inside the other. + - Save memory by preventing unnecessary cast to torch.int64 """ - # One mask is always contained inside the other. - # Save memory by preventing unnecessary cast to torch.int64 intersections = (masks > (mask_threshold + threshold_offset)).sum(-1, dtype=torch.int16).sum(-1, dtype=torch.int32) unions = (masks > (mask_threshold - threshold_offset)).sum(-1, dtype=torch.int16).sum(-1, dtype=torch.int32) return intersections / unions diff --git a/ultralytics/models/sam/modules/decoders.py b/ultralytics/models/sam/modules/decoders.py index 41e3af5d5a0..073b1ad40cb 100644 --- a/ultralytics/models/sam/modules/decoders.py +++ b/ultralytics/models/sam/modules/decoders.py @@ -121,7 +121,7 @@ def predict_masks( """ # Concatenate output tokens output_tokens = torch.cat([self.iou_token.weight, self.mask_tokens.weight], dim=0) - output_tokens = output_tokens.unsqueeze(0).expand(sparse_prompt_embeddings.size(0), -1, -1) + output_tokens = output_tokens.unsqueeze(0).expand(sparse_prompt_embeddings.shape[0], -1, -1) tokens = torch.cat((output_tokens, sparse_prompt_embeddings), dim=1) # Expand per-image data in batch direction to be per-mask diff --git a/ultralytics/models/sam/modules/tiny_encoder.py b/ultralytics/models/sam/modules/tiny_encoder.py index ac37868034f..98f5ac04a40 100644 --- a/ultralytics/models/sam/modules/tiny_encoder.py +++ b/ultralytics/models/sam/modules/tiny_encoder.py @@ -732,7 +732,7 @@ def forward_features(self, x): for i in range(start_i, len(self.layers)): layer = self.layers[i] x = layer(x) - B, _, C = x.size() + B, _, C = x.shape x = x.view(B, 64, 64, C) x = x.permute(0, 3, 1, 2) return self.neck(x) diff --git a/ultralytics/models/yolo/__init__.py b/ultralytics/models/yolo/__init__.py index 230f53a81ca..7b1a5977065 100644 --- a/ultralytics/models/yolo/__init__.py +++ b/ultralytics/models/yolo/__init__.py @@ -2,6 +2,6 @@ from ultralytics.models.yolo import classify, detect, obb, pose, segment -from .model import YOLO +from .model import YOLO, YOLOWorld -__all__ = "classify", "segment", "detect", "pose", "obb", "YOLO" +__all__ = "classify", "segment", "detect", "pose", "obb", "YOLO", "YOLOWorld" diff --git a/ultralytics/models/yolo/classify/train.py b/ultralytics/models/yolo/classify/train.py index a7bbe7724e2..42c65542fc1 100644 --- a/ultralytics/models/yolo/classify/train.py +++ b/ultralytics/models/yolo/classify/train.py @@ -73,7 +73,7 @@ def setup_model(self): elif model in torchvision.models.__dict__: self.model = torchvision.models.__dict__[model](weights="IMAGENET1K_V1" if self.args.pretrained else None) else: - FileNotFoundError(f"ERROR: model={model} not found locally or online. Please check model name.") + raise FileNotFoundError(f"ERROR: model={model} not found locally or online. Please check model name.") ClassificationModel.reshape_outputs(self.model, self.data["nc"]) return ckpt diff --git a/ultralytics/models/yolo/detect/val.py b/ultralytics/models/yolo/detect/val.py index 33d1610fd2d..8226cd694cc 100644 --- a/ultralytics/models/yolo/detect/val.py +++ b/ultralytics/models/yolo/detect/val.py @@ -36,7 +36,7 @@ def __init__(self, dataloader=None, save_dir=None, pbar=None, args=None, _callba self.class_map = None self.args.task = "detect" self.metrics = DetMetrics(save_dir=self.save_dir, on_plot=self.on_plot) - self.iouv = torch.linspace(0.5, 0.95, 10) # iou vector for mAP@0.5:0.95 + self.iouv = torch.linspace(0.5, 0.95, 10) # IoU vector for mAP@0.5:0.95 self.niou = self.iouv.numel() self.lb = [] # for autolabelling @@ -132,8 +132,7 @@ def update_metrics(self, preds, batch): if nl: for k in self.stats.keys(): self.stats[k].append(stat[k]) - # TODO: obb has not supported confusion_matrix yet. - if self.args.plots and self.args.task != "obb": + if self.args.plots: self.confusion_matrix.process_batch(detections=None, gt_bboxes=bbox, gt_cls=cls) continue @@ -147,8 +146,7 @@ def update_metrics(self, preds, batch): # Evaluate if nl: stat["tp"] = self._process_batch(predn, bbox, cls) - # TODO: obb has not supported confusion_matrix yet. - if self.args.plots and self.args.task != "obb": + if self.args.plots: self.confusion_matrix.process_batch(predn, bbox, cls) for k in self.stats.keys(): self.stats[k].append(stat[k]) diff --git a/ultralytics/models/yolo/model.py b/ultralytics/models/yolo/model.py index 858e42c5064..1bd38d3be22 100644 --- a/ultralytics/models/yolo/model.py +++ b/ultralytics/models/yolo/model.py @@ -1,13 +1,27 @@ # Ultralytics YOLO 🚀, AGPL-3.0 license +from pathlib import Path + from ultralytics.engine.model import Model from ultralytics.models import yolo -from ultralytics.nn.tasks import ClassificationModel, DetectionModel, OBBModel, PoseModel, SegmentationModel +from ultralytics.nn.tasks import ClassificationModel, DetectionModel, OBBModel, PoseModel, SegmentationModel, WorldModel +from ultralytics.utils import yaml_load, ROOT class YOLO(Model): """YOLO (You Only Look Once) object detection model.""" + def __init__(self, model="yolov8n.pt", task=None, verbose=False): + """Initialize YOLO model, switching to YOLOWorld if model filename contains '-world'.""" + path = Path(model) + if "-world" in path.stem and path.suffix in {".pt", ".yaml", ".yml"}: # if YOLOWorld PyTorch model + new_instance = YOLOWorld(path) + self.__class__ = type(new_instance) + self.__dict__ = new_instance.__dict__ + else: + # Continue with default YOLO initialization + super().__init__(model=model, task=task, verbose=verbose) + @property def task_map(self): """Map head to model, trainer, validator, and predictor classes.""" @@ -43,3 +57,50 @@ def task_map(self): "predictor": yolo.obb.OBBPredictor, }, } + + +class YOLOWorld(Model): + """YOLO-World object detection model.""" + + def __init__(self, model="yolov8s-world.pt") -> None: + """ + Initializes the YOLOv8-World model with the given pre-trained model file. Supports *.pt and *.yaml formats. + + Args: + model (str | Path): Path to the pre-trained model. Defaults to 'yolov8s-world.pt'. + """ + super().__init__(model=model, task="detect") + + # Assign default COCO class names when there are no custom names + if not hasattr(self.model, "names"): + self.model.names = yaml_load(ROOT / "cfg/datasets/coco8.yaml").get("names") + + @property + def task_map(self): + """Map head to model, validator, and predictor classes.""" + return { + "detect": { + "model": WorldModel, + "validator": yolo.detect.DetectionValidator, + "predictor": yolo.detect.DetectionPredictor, + } + } + + def set_classes(self, classes): + """ + Set classes. + + Args: + classes (List(str)): A list of categories i.e ["person"]. + """ + self.model.set_classes(classes) + # Remove background if it's given + background = " " + if background in classes: + classes.remove(background) + self.model.names = classes + + # Reset method class names + # self.predictor = None # reset predictor otherwise old names remain + if self.predictor: + self.predictor.model.names = classes diff --git a/ultralytics/models/yolo/obb/train.py b/ultralytics/models/yolo/obb/train.py index 43ebaecd108..40a35a99e7f 100644 --- a/ultralytics/models/yolo/obb/train.py +++ b/ultralytics/models/yolo/obb/train.py @@ -15,7 +15,7 @@ class OBBTrainer(yolo.detect.DetectionTrainer): ```python from ultralytics.models.yolo.obb import OBBTrainer - args = dict(model='yolov8n-seg.pt', data='coco8-seg.yaml', epochs=3) + args = dict(model='yolov8n-obb.pt', data='dota8.yaml', epochs=3) trainer = OBBTrainer(overrides=args) trainer.train() ``` diff --git a/ultralytics/models/yolo/obb/val.py b/ultralytics/models/yolo/obb/val.py index accf3d72d54..c440fe2b198 100644 --- a/ultralytics/models/yolo/obb/val.py +++ b/ultralytics/models/yolo/obb/val.py @@ -55,10 +55,11 @@ def _process_batch(self, detections, gt_bboxes, gt_cls): Return correct prediction matrix. Args: - detections (torch.Tensor): Tensor of shape [N, 6] representing detections. - Each detection is of the format: x1, y1, x2, y2, conf, class. - labels (torch.Tensor): Tensor of shape [M, 5] representing labels. - Each label is of the format: class, x1, y1, x2, y2. + detections (torch.Tensor): Tensor of shape [N, 7] representing detections. + Each detection is of the format: x1, y1, x2, y2, conf, class, angle. + gt_bboxes (torch.Tensor): Tensor of shape [M, 5] representing rotated boxes. + Each box is of the format: x1, y1, x2, y2, angle. + labels (torch.Tensor): Tensor of shape [M] representing labels. Returns: (torch.Tensor): Correct prediction matrix of shape [N, 10] for 10 IoU levels. diff --git a/ultralytics/models/yolo/segment/predict.py b/ultralytics/models/yolo/segment/predict.py index 8d8cd59a009..9d7015ff9fc 100644 --- a/ultralytics/models/yolo/segment/predict.py +++ b/ultralytics/models/yolo/segment/predict.py @@ -41,7 +41,7 @@ def postprocess(self, preds, img, orig_imgs): orig_imgs = ops.convert_torch2numpy_batch(orig_imgs) results = [] - proto = preds[1][-1] if len(preds[1]) == 3 else preds[1] # second output is len 3 if pt, but only 1 if exported + proto = preds[1][-1] if isinstance(preds[1], tuple) else preds[1] # tuple if PyTorch model or array if exported for i, pred in enumerate(p): orig_img = orig_imgs[i] img_path = self.batch[0][i] diff --git a/ultralytics/models/yolo/segment/val.py b/ultralytics/models/yolo/segment/val.py index 72c04b2c1f2..94757c4e065 100644 --- a/ultralytics/models/yolo/segment/val.py +++ b/ultralytics/models/yolo/segment/val.py @@ -215,8 +215,12 @@ def plot_predictions(self, batch, preds, ni): self.plot_masks.clear() def pred_to_json(self, predn, filename, pred_masks): - """Save one JSON result.""" - # Example result = {"image_id": 42, "category_id": 18, "bbox": [258.15, 41.29, 348.26, 243.78], "score": 0.236} + """ + Save one JSON result. + + Examples: + >>> result = {"image_id": 42, "category_id": 18, "bbox": [258.15, 41.29, 348.26, 243.78], "score": 0.236} + """ from pycocotools.mask import encode # noqa def single_encode(x): diff --git a/ultralytics/nn/autobackend.py b/ultralytics/nn/autobackend.py index 8f55c3baa9b..abd255c9ae9 100644 --- a/ultralytics/nn/autobackend.py +++ b/ultralytics/nn/autobackend.py @@ -72,7 +72,7 @@ class AutoBackend(nn.Module): | TensorFlow Lite | *.tflite | | TensorFlow Edge TPU | *_edgetpu.tflite | | PaddlePaddle | *_paddle_model | - | ncnn | *_ncnn_model | + | NCNN | *_ncnn_model | This class offers dynamic backend switching capabilities based on the input model format, making it easier to deploy models across various platforms. @@ -86,6 +86,7 @@ def __init__( dnn=False, data=None, fp16=False, + batch=1, fuse=True, verbose=True, ): @@ -98,6 +99,7 @@ def __init__( dnn (bool): Use OpenCV DNN module for ONNX inference. Defaults to False. data (str | Path | optional): Path to the additional data.yaml file containing class names. Optional. fp16 (bool): Enable half-precision inference. Supported only on specific backends. Defaults to False. + batch (int): Batch-size to assume for inference. fuse (bool): Fuse Conv2D + BatchNorm layers for optimization. Defaults to True. verbose (bool): Enable verbose logging. Defaults to True. """ @@ -135,8 +137,8 @@ def __init__( if not (pt or triton or nn_module): w = attempt_download_asset(w) - # Load model - if nn_module: # in-memory PyTorch model + # In-memory PyTorch model + if nn_module: model = weights.to(device) model = model.fuse(verbose=verbose) if fuse else model if hasattr(model, "kpt_shape"): @@ -146,7 +148,9 @@ def __init__( model.half() if fp16 else model.float() self.model = model # explicitly assign for to(), cpu(), cuda(), half() pt = True - elif pt: # PyTorch + + # PyTorch + elif pt: from ultralytics.nn.tasks import attempt_load_weights model = attempt_load_weights( @@ -158,18 +162,24 @@ def __init__( names = model.module.names if hasattr(model, "module") else model.names # get class names model.half() if fp16 else model.float() self.model = model # explicitly assign for to(), cpu(), cuda(), half() - elif jit: # TorchScript + + # TorchScript + elif jit: LOGGER.info(f"Loading {w} for TorchScript inference...") extra_files = {"config.txt": ""} # model metadata model = torch.jit.load(w, _extra_files=extra_files, map_location=device) model.half() if fp16 else model.float() if extra_files["config.txt"]: # load metadata dict metadata = json.loads(extra_files["config.txt"], object_hook=lambda x: dict(x.items())) - elif dnn: # ONNX OpenCV DNN + + # ONNX OpenCV DNN + elif dnn: LOGGER.info(f"Loading {w} for ONNX OpenCV DNN inference...") check_requirements("opencv-python>=4.5.4") net = cv2.dnn.readNetFromONNX(w) - elif onnx: # ONNX Runtime + + # ONNX Runtime + elif onnx: LOGGER.info(f"Loading {w} for ONNX Runtime inference...") check_requirements(("onnx", "onnxruntime-gpu" if cuda else "onnxruntime")) import onnxruntime @@ -177,25 +187,35 @@ def __init__( providers = ["CUDAExecutionProvider", "CPUExecutionProvider"] if cuda else ["CPUExecutionProvider"] session = onnxruntime.InferenceSession(w, providers=providers) output_names = [x.name for x in session.get_outputs()] - metadata = session.get_modelmeta().custom_metadata_map # metadata - elif xml: # OpenVINO + metadata = session.get_modelmeta().custom_metadata_map + + # OpenVINO + elif xml: LOGGER.info(f"Loading {w} for OpenVINO inference...") - check_requirements("openvino>=2023.0") # requires openvino-dev: https://pypi.org/project/openvino-dev/ - from openvino.runtime import Core, Layout, get_batch # noqa + check_requirements("openvino>=2024.0.0") + import openvino as ov - core = Core() + core = ov.Core() w = Path(w) if not w.is_file(): # if not *.xml w = next(w.glob("*.xml")) # get *.xml file from *_openvino_model dir ov_model = core.read_model(model=str(w), weights=w.with_suffix(".bin")) if ov_model.get_parameters()[0].get_layout().empty: - ov_model.get_parameters()[0].set_layout(Layout("NCHW")) - batch_dim = get_batch(ov_model) - if batch_dim.is_static: - batch_size = batch_dim.get_length() - ov_compiled_model = core.compile_model(ov_model, device_name="AUTO") # AUTO selects best available device + ov_model.get_parameters()[0].set_layout(ov.Layout("NCHW")) + + # OpenVINO inference modes are 'LATENCY', 'THROUGHPUT' (not recommended), or 'CUMULATIVE_THROUGHPUT' + inference_mode = "CUMULATIVE_THROUGHPUT" if batch > 1 else "LATENCY" + LOGGER.info(f"Using OpenVINO {inference_mode} mode for batch={batch} inference...") + ov_compiled_model = core.compile_model( + ov_model, + device_name="AUTO", # AUTO selects best available device, do not modify + config={"PERFORMANCE_HINT": inference_mode}, + ) + input_name = ov_compiled_model.input().get_any_name() metadata = w.parent / "metadata.yaml" - elif engine: # TensorRT + + # TensorRT + elif engine: LOGGER.info(f"Loading {w} for TensorRT inference...") try: import tensorrt as trt # noqa https://developer.nvidia.com/nvidia-tensorrt-download @@ -234,20 +254,26 @@ def __init__( bindings[name] = Binding(name, dtype, shape, im, int(im.data_ptr())) binding_addrs = OrderedDict((n, d.ptr) for n, d in bindings.items()) batch_size = bindings["images"].shape[0] # if dynamic, this is instead max batch size - elif coreml: # CoreML + + # CoreML + elif coreml: LOGGER.info(f"Loading {w} for CoreML inference...") import coremltools as ct model = ct.models.MLModel(w) metadata = dict(model.user_defined_metadata) - elif saved_model: # TF SavedModel + + # TF SavedModel + elif saved_model: LOGGER.info(f"Loading {w} for TensorFlow SavedModel inference...") import tensorflow as tf keras = False # assume TF1 saved_model model = tf.keras.models.load_model(w) if keras else tf.saved_model.load(w) metadata = Path(w) / "metadata.yaml" - elif pb: # GraphDef https://www.tensorflow.org/guide/migrate#a_graphpb_or_graphpbtxt + + # TF GraphDef + elif pb: # https://www.tensorflow.org/guide/migrate#a_graphpb_or_graphpbtxt LOGGER.info(f"Loading {w} for TensorFlow GraphDef inference...") import tensorflow as tf @@ -263,6 +289,8 @@ def wrap_frozen_graph(gd, inputs, outputs): with open(w, "rb") as f: gd.ParseFromString(f.read()) frozen_func = wrap_frozen_graph(gd, inputs="x:0", outputs=gd_outputs(gd)) + + # TFLite or TFLite Edge TPU elif tflite or edgetpu: # https://www.tensorflow.org/lite/guide/python#install_tensorflow_lite_for_python try: # https://coral.ai/docs/edgetpu/tflite-python/#update-existing-tf-lite-code-for-the-edge-tpu from tflite_runtime.interpreter import Interpreter, load_delegate @@ -287,9 +315,13 @@ def wrap_frozen_graph(gd, inputs, outputs): with zipfile.ZipFile(w, "r") as model: meta_file = model.namelist()[0] metadata = ast.literal_eval(model.read(meta_file).decode("utf-8")) - elif tfjs: # TF.js + + # TF.js + elif tfjs: raise NotImplementedError("YOLOv8 TF.js inference is not currently supported.") - elif paddle: # PaddlePaddle + + # PaddlePaddle + elif paddle: LOGGER.info(f"Loading {w} for PaddlePaddle inference...") check_requirements("paddlepaddle-gpu" if cuda else "paddlepaddle") import paddle.inference as pdi # noqa @@ -304,9 +336,11 @@ def wrap_frozen_graph(gd, inputs, outputs): input_handle = predictor.get_input_handle(predictor.get_input_names()[0]) output_names = predictor.get_output_names() metadata = w.parents[1] / "metadata.yaml" - elif ncnn: # ncnn - LOGGER.info(f"Loading {w} for ncnn inference...") - check_requirements("git+https://github.com/Tencent/ncnn.git" if ARM64 else "ncnn") # requires ncnn + + # NCNN + elif ncnn: + LOGGER.info(f"Loading {w} for NCNN inference...") + check_requirements("git+https://github.com/Tencent/ncnn.git" if ARM64 else "ncnn") # requires NCNN import ncnn as pyncnn net = pyncnn.Net() @@ -317,18 +351,21 @@ def wrap_frozen_graph(gd, inputs, outputs): net.load_param(str(w)) net.load_model(str(w.with_suffix(".bin"))) metadata = w.parent / "metadata.yaml" - elif triton: # NVIDIA Triton Inference Server + + # NVIDIA Triton Inference Server + elif triton: check_requirements("tritonclient[all]") from ultralytics.utils.triton import TritonRemoteModel model = TritonRemoteModel(w) + + # Any other format (unsupported) else: from ultralytics.engine.exporter import export_formats raise TypeError( f"model='{w}' is not a supported model format. " - "See https://docs.ultralytics.com/modes/predict for help." - f"\n\n{export_formats()}" + f"See https://docs.ultralytics.com/modes/predict for help.\n\n{export_formats()}" ) # Load external metadata YAML @@ -380,21 +417,51 @@ def forward(self, im, augment=False, visualize=False, embed=None): if self.nhwc: im = im.permute(0, 2, 3, 1) # torch BCHW to numpy BHWC shape(1,320,192,3) - if self.pt or self.nn_module: # PyTorch + # PyTorch + if self.pt or self.nn_module: y = self.model(im, augment=augment, visualize=visualize, embed=embed) - elif self.jit: # TorchScript + + # TorchScript + elif self.jit: y = self.model(im) - elif self.dnn: # ONNX OpenCV DNN + + # ONNX OpenCV DNN + elif self.dnn: im = im.cpu().numpy() # torch to numpy self.net.setInput(im) y = self.net.forward() - elif self.onnx: # ONNX Runtime + + # ONNX Runtime + elif self.onnx: im = im.cpu().numpy() # torch to numpy y = self.session.run(self.output_names, {self.session.get_inputs()[0].name: im}) - elif self.xml: # OpenVINO + + # OpenVINO + elif self.xml: im = im.cpu().numpy() # FP32 - y = list(self.ov_compiled_model(im).values()) - elif self.engine: # TensorRT + + if self.inference_mode in {"THROUGHPUT", "CUMULATIVE_THROUGHPUT"}: # optimized for larger batch-sizes + n = im.shape[0] # number of images in batch + results = [None] * n # preallocate list with None to match the number of images + + def callback(request, userdata): + """Places result in preallocated list using userdata index.""" + results[userdata] = request.results + + # Create AsyncInferQueue, set the callback and start asynchronous inference for each input image + async_queue = self.ov.runtime.AsyncInferQueue(self.ov_compiled_model) + async_queue.set_callback(callback) + for i in range(n): + # Start async inference with userdata=i to specify the position in results list + async_queue.start_async(inputs={self.input_name: im[i : i + 1]}, userdata=i) # keep image as BCHW + async_queue.wait_all() # wait for all inference requests to complete + y = np.concatenate([list(r.values())[0] for r in results]) + + else: # inference_mode = "LATENCY", optimized for fastest first result at batch-size 1 + y = list(self.ov_compiled_model(im).values()) + + # TensorRT + elif self.engine: if self.dynamic and im.shape != self.bindings["images"].shape: i = self.model.get_binding_index("images") self.context.set_binding_shape(i, im.shape) # reshape if dynamic @@ -407,7 +474,9 @@ def forward(self, im, augment=False, visualize=False, embed=None): self.binding_addrs["images"] = int(im.data_ptr()) self.context.execute_v2(list(self.binding_addrs.values())) y = [self.bindings[x].data for x in sorted(self.output_names)] - elif self.coreml: # CoreML + + # CoreML + elif self.coreml: im = im[0].cpu().numpy() im_pil = Image.fromarray((im * 255).astype("uint8")) # im = im.resize((192, 320), Image.BILINEAR) @@ -426,25 +495,28 @@ def forward(self, im, augment=False, visualize=False, embed=None): y = list(y.values()) elif len(y) == 2: # segmentation model y = list(reversed(y.values())) # reversed for segmentation models (pred, proto) - elif self.paddle: # PaddlePaddle + + # PaddlePaddle + elif self.paddle: im = im.cpu().numpy().astype(np.float32) self.input_handle.copy_from_cpu(im) self.predictor.run() y = [self.predictor.get_output_handle(x).copy_to_cpu() for x in self.output_names] - elif self.ncnn: # ncnn + + # NCNN + elif self.ncnn: mat_in = self.pyncnn.Mat(im[0].cpu().numpy()) - ex = self.net.create_extractor() - input_names, output_names = self.net.input_names(), self.net.output_names() - ex.input(input_names[0], mat_in) - y = [] - for output_name in output_names: - mat_out = self.pyncnn.Mat() - ex.extract(output_name, mat_out) - y.append(np.array(mat_out)[None]) - elif self.triton: # NVIDIA Triton Inference Server + with self.net.create_extractor() as ex: + ex.input(self.net.input_names()[0], mat_in) + y = [np.array(ex.extract(x)[1])[None] for x in self.net.output_names()] + + # NVIDIA Triton Inference Server + elif self.triton: im = im.cpu().numpy() # torch to numpy y = self.model(im) - else: # TensorFlow (SavedModel, GraphDef, Lite, Edge TPU) + + # TensorFlow (SavedModel, GraphDef, Lite, Edge TPU) + else: im = im.cpu().numpy() if self.saved_model: # SavedModel y = self.model(im, training=False) if self.keras else self.model(im) @@ -508,9 +580,6 @@ def warmup(self, imgsz=(1, 3, 640, 640)): Args: imgsz (tuple): The shape of the dummy input tensor in the format (batch_size, channels, height, width) - - Returns: - (None): This method runs the forward pass and don't return any value """ warmup_types = self.pt, self.jit, self.onnx, self.engine, self.saved_model, self.pb, self.triton, self.nn_module if any(warmup_types) and (self.device.type != "cpu" or self.triton): @@ -521,17 +590,20 @@ def warmup(self, imgsz=(1, 3, 640, 640)): @staticmethod def _model_type(p="path/to/model.pt"): """ - This function takes a path to a model file and returns the model type. + This function takes a path to a model file and returns the model type. Possibles types are pt, jit, onnx, xml, + engine, coreml, saved_model, pb, tflite, edgetpu, tfjs, ncnn or paddle. Args: p: path to the model file. Defaults to path/to/model.pt + + Examples: + >>> model = AutoBackend(weights="path/to/model.onnx") + >>> model_type = model._model_type() # returns "onnx" """ - # Return model type from model path, i.e. path='path/to/model.onnx' -> type=onnx - # types = [pt, jit, onnx, xml, engine, coreml, saved_model, pb, tflite, edgetpu, tfjs, paddle] from ultralytics.engine.exporter import export_formats sf = list(export_formats().Suffix) # export suffixes - if not is_url(p, check=False) and not isinstance(p, str): + if not is_url(p) and not isinstance(p, str): check_suffix(p, sf) # checks name = Path(p).name types = [s in name for s in sf] @@ -543,6 +615,6 @@ def _model_type(p="path/to/model.pt"): from urllib.parse import urlsplit url = urlsplit(p) - triton = url.netloc and url.path and url.scheme in {"http", "grpc"} + triton = bool(url.netloc) and bool(url.path) and url.scheme in {"http", "grpc"} return types + [triton] diff --git a/ultralytics/nn/modules/__init__.py b/ultralytics/nn/modules/__init__.py index 3c6739e5840..d785c008c8b 100644 --- a/ultralytics/nn/modules/__init__.py +++ b/ultralytics/nn/modules/__init__.py @@ -28,6 +28,8 @@ Bottleneck, BottleneckCSP, C2f, + C2fAttn, + ImagePoolingAttn, C3Ghost, C3x, GhostBottleneck, @@ -36,6 +38,14 @@ Proto, RepC3, ResNetLayer, + ContrastiveHead, + BNContrastiveHead, + RepNCSPELAN4, + ADown, + SPPELAN, + CBFuse, + CBLinear, + Silence, ) from .conv import ( CBAM, @@ -52,7 +62,7 @@ RepConv, SpatialAttention, ) -from .head import OBB, Classify, Detect, Pose, RTDETRDecoder, Segment +from .head import OBB, Classify, Detect, Pose, RTDETRDecoder, Segment, WorldDetect from .transformer import ( AIFI, MLP, @@ -93,6 +103,7 @@ "C2", "C3", "C2f", + "C2fAttn", "C3x", "C3TR", "C3Ghost", @@ -114,4 +125,14 @@ "MLP", "ResNetLayer", "OBB", + "WorldDetect", + "ImagePoolingAttn", + "ContrastiveHead", + "BNContrastiveHead", + "RepNCSPELAN4", + "ADown", + "SPPELAN", + "CBFuse", + "CBLinear", + "Silence", ) diff --git a/ultralytics/nn/modules/block.py b/ultralytics/nn/modules/block.py index 5a6d12f75d5..ca991f6e090 100644 --- a/ultralytics/nn/modules/block.py +++ b/ultralytics/nn/modules/block.py @@ -5,7 +5,7 @@ import torch.nn as nn import torch.nn.functional as F -from .conv import Conv, DWConv, GhostConv, LightConv, RepConv +from .conv import Conv, DWConv, GhostConv, LightConv, RepConv, autopad from .transformer import TransformerBlock __all__ = ( @@ -18,6 +18,10 @@ "C2", "C3", "C2f", + "C2fAttn", + "ImagePoolingAttn", + "ContrastiveHead", + "BNContrastiveHead", "C3x", "C3TR", "C3Ghost", @@ -27,6 +31,12 @@ "Proto", "RepC3", "ResNetLayer", + "RepNCSPELAN4", + "ADown", + "SPPELAN", + "CBFuse", + "CBLinear", + "Silence", ) @@ -47,7 +57,7 @@ def __init__(self, c1=16): def forward(self, x): """Applies a transformer layer on input tensor 'x' and returns a tensor.""" - b, c, a = x.shape # batch, channels, anchors + b, _, a = x.shape # batch, channels, anchors return self.conv(x.view(b, 4, self.c1, a).transpose(2, 1).softmax(1)).view(b, 4, a) # return self.conv(x.view(b, self.c1, 4, a).softmax(1)).view(b, 4, a) @@ -161,10 +171,9 @@ def __init__(self, c1, c2, k=5): def forward(self, x): """Forward pass through Ghost Convolution block.""" - x = self.cv1(x) - y1 = self.m(x) - y2 = self.m(y1) - return self.cv2(torch.cat((x, y1, y2, self.m(y2)), 1)) + y = [self.cv1(x)] + y.extend(self.m(y[-1]) for _ in range(3)) + return self.cv2(torch.cat(y, 1)) class C1(nn.Module): @@ -390,3 +399,286 @@ def __init__(self, c1, c2, s=1, is_first=False, n=1, e=4): def forward(self, x): """Forward pass through the ResNet layer.""" return self.layer(x) + + +class MaxSigmoidAttnBlock(nn.Module): + """Max Sigmoid attention block.""" + + def __init__(self, c1, c2, nh=1, ec=128, gc=512, scale=False): + """Initializes MaxSigmoidAttnBlock with specified arguments.""" + super().__init__() + self.nh = nh + self.hc = c2 // nh + self.ec = Conv(c1, ec, k=1, act=False) if c1 != ec else None + self.gl = nn.Linear(gc, ec) + self.bias = nn.Parameter(torch.zeros(nh)) + self.proj_conv = Conv(c1, c2, k=3, s=1, act=False) + self.scale = nn.Parameter(torch.ones(1, nh, 1, 1)) if scale else 1.0 + + def forward(self, x, guide): + """Forward process.""" + bs, _, h, w = x.shape + + guide = self.gl(guide) + guide = guide.view(bs, -1, self.nh, self.hc) + embed = self.ec(x) if self.ec is not None else x + embed = embed.view(bs, self.nh, self.hc, h, w) + + aw = torch.einsum("bmchw,bnmc->bmhwn", embed, guide) + aw = aw.max(dim=-1)[0] + aw = aw / (self.hc**0.5) + aw = aw + self.bias[None, :, None, None] + aw = aw.sigmoid() * self.scale + + x = self.proj_conv(x) + x = x.view(bs, self.nh, -1, h, w) + x = x * aw.unsqueeze(2) + return x.view(bs, -1, h, w) + + +class C2fAttn(nn.Module): + """C2f module with an additional attn module.""" + + def __init__(self, c1, c2, n=1, ec=128, nh=1, gc=512, shortcut=False, g=1, e=0.5): + """Initialize CSP bottleneck layer with two convolutions with arguments ch_in, ch_out, number, shortcut, groups, + expansion. + """ + super().__init__() + self.c = int(c2 * e) # hidden channels + self.cv1 = Conv(c1, 2 * self.c, 1, 1) + self.cv2 = Conv((3 + n) * self.c, c2, 1) # optional act=FReLU(c2) + self.m = nn.ModuleList(Bottleneck(self.c, self.c, shortcut, g, k=((3, 3), (3, 3)), e=1.0) for _ in range(n)) + self.attn = MaxSigmoidAttnBlock(self.c, self.c, gc=gc, ec=ec, nh=nh) + + def forward(self, x, guide): + """Forward pass through C2f layer.""" + y = list(self.cv1(x).chunk(2, 1)) + y.extend(m(y[-1]) for m in self.m) + y.append(self.attn(y[-1], guide)) + return self.cv2(torch.cat(y, 1)) + + def forward_split(self, x, guide): + """Forward pass using split() instead of chunk().""" + y = list(self.cv1(x).split((self.c, self.c), 1)) + y.extend(m(y[-1]) for m in self.m) + y.append(self.attn(y[-1], guide)) + return self.cv2(torch.cat(y, 1)) + + +class ImagePoolingAttn(nn.Module): + """ImagePoolingAttn: Enhance the text embeddings with image-aware information.""" + + def __init__(self, ec=256, ch=(), ct=512, nh=8, k=3, scale=False): + """Initializes ImagePoolingAttn with specified arguments.""" + super().__init__() + + nf = len(ch) + self.query = nn.Sequential(nn.LayerNorm(ct), nn.Linear(ct, ec)) + self.key = nn.Sequential(nn.LayerNorm(ec), nn.Linear(ec, ec)) + self.value = nn.Sequential(nn.LayerNorm(ec), nn.Linear(ec, ec)) + self.proj = nn.Linear(ec, ct) + self.scale = nn.Parameter(torch.tensor([0.0]), requires_grad=True) if scale else 1.0 + self.projections = nn.ModuleList([nn.Conv2d(in_channels, ec, kernel_size=1) for in_channels in ch]) + self.im_pools = nn.ModuleList([nn.AdaptiveMaxPool2d((k, k)) for _ in range(nf)]) + self.ec = ec + self.nh = nh + self.nf = nf + self.hc = ec // nh + self.k = k + + def forward(self, x, text): + """Executes attention mechanism on input tensor x and guide tensor.""" + bs = x[0].shape[0] + assert len(x) == self.nf + num_patches = self.k**2 + x = [pool(proj(x)).view(bs, -1, num_patches) for (x, proj, pool) in zip(x, self.projections, self.im_pools)] + x = torch.cat(x, dim=-1).transpose(1, 2) + q = self.query(text) + k = self.key(x) + v = self.value(x) + + # q = q.reshape(1, text.shape[1], self.nh, self.hc).repeat(bs, 1, 1, 1) + q = q.reshape(bs, -1, self.nh, self.hc) + k = k.reshape(bs, -1, self.nh, self.hc) + v = v.reshape(bs, -1, self.nh, self.hc) + + aw = torch.einsum("bnmc,bkmc->bmnk", q, k) + aw = aw / (self.hc**0.5) + aw = F.softmax(aw, dim=-1) + + x = torch.einsum("bmnk,bkmc->bnmc", aw, v) + x = self.proj(x.reshape(bs, -1, self.ec)) + return x * self.scale + text + + +class ContrastiveHead(nn.Module): + """Contrastive Head for YOLO-World compute the region-text scores according to the similarity between image and text + features. + """ + + def __init__(self): + """Initializes ContrastiveHead with specified region-text similarity parameters.""" + super().__init__() + self.bias = nn.Parameter(torch.zeros([])) + self.logit_scale = nn.Parameter(torch.ones([]) * torch.tensor(1 / 0.07).log()) + + def forward(self, x, w): + """Forward function of contrastive learning.""" + x = F.normalize(x, dim=1, p=2) + w = F.normalize(w, dim=-1, p=2) + x = torch.einsum("bchw,bkc->bkhw", x, w) + return x * self.logit_scale.exp() + self.bias + + +class BNContrastiveHead(nn.Module): + """ + Batch Norm Contrastive Head for YOLO-World using batch norm instead of l2-normalization. + + Args: + embed_dims (int): Embed dimensions of text and image features. + """ + + def __init__(self, embed_dims: int): + """Initialize ContrastiveHead with region-text similarity parameters.""" + super().__init__() + self.norm = nn.BatchNorm2d(embed_dims) + self.bias = nn.Parameter(torch.zeros([])) + # use -1.0 is more stable + self.logit_scale = nn.Parameter(-1.0 * torch.ones([])) + + def forward(self, x, w): + """Forward function of contrastive learning.""" + x = self.norm(x) + w = F.normalize(w, dim=-1, p=2) + x = torch.einsum("bchw,bkc->bkhw", x, w) + return x * self.logit_scale.exp() + self.bias + + +class RepBottleneck(Bottleneck): + """Rep bottleneck.""" + + def __init__(self, c1, c2, shortcut=True, g=1, k=(3, 3), e=0.5): + """Initializes a RepBottleneck module with customizable in/out channels, shortcut option, groups and expansion + ratio. + """ + super().__init__(c1, c2, shortcut, g, k, e) + c_ = int(c2 * e) # hidden channels + self.cv1 = RepConv(c1, c_, k[0], 1) + + +class RepCSP(C3): + """Rep CSP Bottleneck with 3 convolutions.""" + + def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5): + """Initializes RepCSP layer with given channels, repetitions, shortcut, groups and expansion ratio.""" + super().__init__(c1, c2, n, shortcut, g, e) + c_ = int(c2 * e) # hidden channels + self.m = nn.Sequential(*(RepBottleneck(c_, c_, shortcut, g, e=1.0) for _ in range(n))) + + +class RepNCSPELAN4(nn.Module): + """CSP-ELAN.""" + + def __init__(self, c1, c2, c3, c4, n=1): + """Initializes CSP-ELAN layer with specified channel sizes, repetitions, and convolutions.""" + super().__init__() + self.c = c3 // 2 + self.cv1 = Conv(c1, c3, 1, 1) + self.cv2 = nn.Sequential(RepCSP(c3 // 2, c4, n), Conv(c4, c4, 3, 1)) + self.cv3 = nn.Sequential(RepCSP(c4, c4, n), Conv(c4, c4, 3, 1)) + self.cv4 = Conv(c3 + (2 * c4), c2, 1, 1) + + def forward(self, x): + """Forward pass through RepNCSPELAN4 layer.""" + y = list(self.cv1(x).chunk(2, 1)) + y.extend((m(y[-1])) for m in [self.cv2, self.cv3]) + return self.cv4(torch.cat(y, 1)) + + def forward_split(self, x): + """Forward pass using split() instead of chunk().""" + y = list(self.cv1(x).split((self.c, self.c), 1)) + y.extend(m(y[-1]) for m in [self.cv2, self.cv3]) + return self.cv4(torch.cat(y, 1)) + + +class ADown(nn.Module): + """ADown.""" + + def __init__(self, c1, c2): + """Initializes ADown module with convolution layers to downsample input from channels c1 to c2.""" + super().__init__() + self.c = c2 // 2 + self.cv1 = Conv(c1 // 2, self.c, 3, 2, 1) + self.cv2 = Conv(c1 // 2, self.c, 1, 1, 0) + + def forward(self, x): + """Forward pass through ADown layer.""" + x = torch.nn.functional.avg_pool2d(x, 2, 1, 0, False, True) + x1, x2 = x.chunk(2, 1) + x1 = self.cv1(x1) + x2 = torch.nn.functional.max_pool2d(x2, 3, 2, 1) + x2 = self.cv2(x2) + return torch.cat((x1, x2), 1) + + +class SPPELAN(nn.Module): + """SPP-ELAN.""" + + def __init__(self, c1, c2, c3, k=5): + """Initializes SPP-ELAN block with convolution and max pooling layers for spatial pyramid pooling.""" + super().__init__() + self.c = c3 + self.cv1 = Conv(c1, c3, 1, 1) + self.cv2 = nn.MaxPool2d(kernel_size=k, stride=1, padding=k // 2) + self.cv3 = nn.MaxPool2d(kernel_size=k, stride=1, padding=k // 2) + self.cv4 = nn.MaxPool2d(kernel_size=k, stride=1, padding=k // 2) + self.cv5 = Conv(4 * c3, c2, 1, 1) + + def forward(self, x): + """Forward pass through SPPELAN layer.""" + y = [self.cv1(x)] + y.extend(m(y[-1]) for m in [self.cv2, self.cv3, self.cv4]) + return self.cv5(torch.cat(y, 1)) + + +class Silence(nn.Module): + """Silence.""" + + def __init__(self): + """Initializes the Silence module.""" + super(Silence, self).__init__() + + def forward(self, x): + """Forward pass through Silence layer.""" + return x + + +class CBLinear(nn.Module): + """CBLinear.""" + + def __init__(self, c1, c2s, k=1, s=1, p=None, g=1): + """Initializes the CBLinear module, passing inputs unchanged.""" + super(CBLinear, self).__init__() + self.c2s = c2s + self.conv = nn.Conv2d(c1, sum(c2s), k, s, autopad(k, p), groups=g, bias=True) + + def forward(self, x): + """Forward pass through CBLinear layer.""" + outs = self.conv(x).split(self.c2s, dim=1) + return outs + + +class CBFuse(nn.Module): + """CBFuse.""" + + def __init__(self, idx): + """Initializes CBFuse module with layer index for selective feature fusion.""" + super(CBFuse, self).__init__() + self.idx = idx + + def forward(self, xs): + """Forward pass through CBFuse layer.""" + target_size = xs[-1].shape[2:] + res = [F.interpolate(x[self.idx[i]], size=target_size, mode="nearest") for i, x in enumerate(xs[:-1])] + out = torch.sum(torch.stack(res + xs[-1:]), dim=0) + return out diff --git a/ultralytics/nn/modules/head.py b/ultralytics/nn/modules/head.py index 33c724b518e..9cd794e4d6d 100644 --- a/ultralytics/nn/modules/head.py +++ b/ultralytics/nn/modules/head.py @@ -8,7 +8,7 @@ from torch.nn.init import constant_, xavier_uniform_ from ultralytics.utils.tal import TORCH_1_10, dist2bbox, dist2rbox, make_anchors -from .block import DFL, Proto +from .block import DFL, Proto, ContrastiveHead, BNContrastiveHead from .conv import Conv from .transformer import MLP, DeformableTransformerDecoder, DeformableTransformerDecoderLayer from .utils import bias_init_with_prob, linear_init @@ -59,16 +59,17 @@ def forward(self, x): cls = x_cat[:, self.reg_max * 4 :] else: box, cls = x_cat.split((self.reg_max * 4, self.nc), 1) - dbox = self.decode_bboxes(box) if self.export and self.format in ("tflite", "edgetpu"): # Precompute normalization factor to increase numerical stability # See https://github.com/ultralytics/ultralytics/issues/7371 - img_h = shape[2] - img_w = shape[3] - img_size = torch.tensor([img_w, img_h, img_w, img_h], device=box.device).reshape(1, 4, 1) - norm = self.strides / (self.stride[0] * img_size) - dbox = dist2bbox(self.dfl(box) * norm, self.anchors.unsqueeze(0) * norm[:, :2], xywh=True, dim=1) + grid_h = shape[2] + grid_w = shape[3] + grid_size = torch.tensor([grid_w, grid_h, grid_w, grid_h], device=box.device).reshape(1, 4, 1) + norm = self.strides / (self.stride[0] * grid_size) + dbox = self.decode_bboxes(self.dfl(box) * norm, self.anchors.unsqueeze(0) * norm[:, :2]) + else: + dbox = self.decode_bboxes(self.dfl(box), self.anchors.unsqueeze(0)) * self.strides y = torch.cat((dbox, cls.sigmoid()), 1) return y if self.export else (y, x) @@ -82,9 +83,9 @@ def bias_init(self): a[-1].bias.data[:] = 1.0 # box b[-1].bias.data[: m.nc] = math.log(5 / m.nc / (640 / s) ** 2) # cls (.01 objects, 80 classes, 640 img) - def decode_bboxes(self, bboxes): + def decode_bboxes(self, bboxes, anchors): """Decode bounding boxes.""" - return dist2bbox(self.dfl(bboxes), self.anchors.unsqueeze(0), xywh=True, dim=1) * self.strides + return dist2bbox(bboxes, anchors, xywh=True, dim=1) class Segment(Detect): @@ -139,9 +140,9 @@ def forward(self, x): return x, angle return torch.cat([x, angle], 1) if self.export else (torch.cat([x[0], angle], 1), (x[1], angle)) - def decode_bboxes(self, bboxes): + def decode_bboxes(self, bboxes, anchors): """Decode rotated bounding boxes.""" - return dist2rbox(self.dfl(bboxes), self.angle, self.anchors.unsqueeze(0), dim=1) * self.strides + return dist2rbox(bboxes, self.angle, anchors, dim=1) class Pose(Detect): @@ -207,6 +208,49 @@ def forward(self, x): return x if self.training else x.softmax(1) +class WorldDetect(Detect): + def __init__(self, nc=80, embed=512, with_bn=False, ch=()): + """Initialize YOLOv8 detection layer with nc classes and layer channels ch.""" + super().__init__(nc, ch) + c3 = max(ch[0], min(self.nc, 100)) + self.cv3 = nn.ModuleList(nn.Sequential(Conv(x, c3, 3), Conv(c3, c3, 3), nn.Conv2d(c3, embed, 1)) for x in ch) + self.cv4 = nn.ModuleList(BNContrastiveHead(embed) if with_bn else ContrastiveHead() for _ in ch) + + def forward(self, x, text): + """Concatenates and returns predicted bounding boxes and class probabilities.""" + for i in range(self.nl): + x[i] = torch.cat((self.cv2[i](x[i]), self.cv4[i](self.cv3[i](x[i]), text)), 1) + if self.training: + return x + + # Inference path + shape = x[0].shape # BCHW + x_cat = torch.cat([xi.view(shape[0], self.nc + self.reg_max * 4, -1) for xi in x], 2) + if self.dynamic or self.shape != shape: + self.anchors, self.strides = (x.transpose(0, 1) for x in make_anchors(x, self.stride, 0.5)) + self.shape = shape + + if self.export and self.format in ("saved_model", "pb", "tflite", "edgetpu", "tfjs"): # avoid TF FlexSplitV ops + box = x_cat[:, : self.reg_max * 4] + cls = x_cat[:, self.reg_max * 4 :] + else: + box, cls = x_cat.split((self.reg_max * 4, self.nc), 1) + + if self.export and self.format in ("tflite", "edgetpu"): + # Precompute normalization factor to increase numerical stability + # See https://github.com/ultralytics/ultralytics/issues/7371 + grid_h = shape[2] + grid_w = shape[3] + grid_size = torch.tensor([grid_w, grid_h, grid_w, grid_h], device=box.device).reshape(1, 4, 1) + norm = self.strides / (self.stride[0] * grid_size) + dbox = self.decode_bboxes(self.dfl(box) * norm, self.anchors.unsqueeze(0) * norm[:, :2]) + else: + dbox = self.decode_bboxes(self.dfl(box), self.anchors.unsqueeze(0)) * self.strides + + y = torch.cat((dbox, cls.sigmoid()), 1) + return y if self.export else (y, x) + + class RTDETRDecoder(nn.Module): """ Real-Time Deformable Transformer Decoder (RTDETRDecoder) module for object detection. @@ -351,7 +395,7 @@ def _generate_anchors(self, shapes, grid_size=0.05, dtype=torch.float32, device= anchors.append(torch.cat([grid_xy, wh], -1).view(-1, h * w, 4)) # (1, h*w, 4) anchors = torch.cat(anchors, 1) # (1, h*w*nl, 4) - valid_mask = ((anchors > eps) * (anchors < 1 - eps)).all(-1, keepdim=True) # 1, h*w*nl, 1 + valid_mask = ((anchors > eps) & (anchors < 1 - eps)).all(-1, keepdim=True) # 1, h*w*nl, 1 anchors = torch.log(anchors / (1 - anchors)) anchors = anchors.masked_fill(~valid_mask, float("inf")) return anchors, valid_mask diff --git a/ultralytics/nn/modules/transformer.py b/ultralytics/nn/modules/transformer.py index 494c431aee6..062c6094eaf 100644 --- a/ultralytics/nn/modules/transformer.py +++ b/ultralytics/nn/modules/transformer.py @@ -215,7 +215,7 @@ def forward(self, x): class MSDeformAttn(nn.Module): """ - Multi-Scale Deformable Attention Module based on Deformable-DETR and PaddleDetection implementations. + Multiscale Deformable Attention Module based on Deformable-DETR and PaddleDetection implementations. https://github.com/fundamentalvision/Deformable-DETR/blob/main/models/ops/modules/ms_deform_attn.py """ diff --git a/ultralytics/nn/modules/utils.py b/ultralytics/nn/modules/utils.py index 75a050df1b2..15129673408 100644 --- a/ultralytics/nn/modules/utils.py +++ b/ultralytics/nn/modules/utils.py @@ -46,7 +46,7 @@ def multi_scale_deformable_attn_pytorch( attention_weights: torch.Tensor, ) -> torch.Tensor: """ - Multi-scale deformable attention. + Multiscale deformable attention. https://github.com/IDEA-Research/detrex/blob/main/detrex/layers/multi_scale_deform_attn.py """ diff --git a/ultralytics/nn/tasks.py b/ultralytics/nn/tasks.py index 2aba0629748..f116ed2cf57 100644 --- a/ultralytics/nn/tasks.py +++ b/ultralytics/nn/tasks.py @@ -19,6 +19,8 @@ Bottleneck, BottleneckCSP, C2f, + C2fAttn, + ImagePoolingAttn, C3Ghost, C3x, Classify, @@ -40,6 +42,13 @@ ResNetLayer, RTDETRDecoder, Segment, + WorldDetect, + RepNCSPELAN4, + ADown, + SPPELAN, + CBFuse, + CBLinear, + Silence, ) from ultralytics.utils import DEFAULT_CFG_DICT, DEFAULT_CFG_KEYS, LOGGER, colorstr, emojis, yaml_load from ultralytics.utils.checks import check_requirements, check_suffix, check_yaml @@ -222,7 +231,7 @@ def _apply(self, fn): """ self = super()._apply(fn) m = self.model[-1] # Detect() - if isinstance(m, (Detect, Segment)): + if isinstance(m, Detect): # includes all Detect subclasses like Segment, Pose, OBB, WorldDetect m.stride = fn(m.stride) m.anchors = fn(m.anchors) m.strides = fn(m.strides) @@ -281,7 +290,7 @@ def __init__(self, cfg="yolov8n.yaml", ch=3, nc=None, verbose=True): # model, i # Build strides m = self.model[-1] # Detect() - if isinstance(m, (Detect, Segment, Pose, OBB)): + if isinstance(m, Detect): # includes all Detect subclasses like Segment, Pose, OBB, WorldDetect s = 256 # 2x min stride m.inplace = self.inplace forward = lambda x: self.forward(x)[0] if isinstance(m, (Segment, Pose, OBB)) else self.forward(x) @@ -546,6 +555,79 @@ def predict(self, x, profile=False, visualize=False, batch=None, augment=False, return x +class WorldModel(DetectionModel): + """YOLOv8 World Model.""" + + def __init__(self, cfg="yolov8s-world.yaml", ch=3, nc=None, verbose=True): + """Initialize YOLOv8 world model with given config and parameters.""" + self.txt_feats = torch.randn(1, nc or 80, 512) # features placeholder + self.clip_model = None # CLIP model placeholder + super().__init__(cfg=cfg, ch=ch, nc=nc, verbose=verbose) + + def set_classes(self, text): + """Perform a forward pass with optional profiling, visualization, and embedding extraction.""" + try: + import clip + except ImportError: + check_requirements("git+https://github.com/openai/CLIP.git") + import clip + + if not getattr(self, "clip_model", None): # for backwards compatibility of models lacking clip_model attribute + self.clip_model = clip.load("ViT-B/32")[0] + device = next(self.clip_model.parameters()).device + text_token = clip.tokenize(text).to(device) + txt_feats = self.clip_model.encode_text(text_token).to(dtype=torch.float32) + txt_feats = txt_feats / txt_feats.norm(p=2, dim=-1, keepdim=True) + self.txt_feats = txt_feats.reshape(-1, len(text), txt_feats.shape[-1]).detach() + self.model[-1].nc = len(text) + + def init_criterion(self): + """Initialize the loss criterion for the model.""" + raise NotImplementedError + + def predict(self, x, profile=False, visualize=False, augment=False, embed=None): + """ + Perform a forward pass through the model. + + Args: + x (torch.Tensor): The input tensor. + profile (bool, optional): If True, profile the computation time for each layer. Defaults to False. + visualize (bool, optional): If True, save feature maps for visualization. Defaults to False. + augment (bool, optional): If True, perform data augmentation during inference. Defaults to False. + embed (list, optional): A list of feature vectors/embeddings to return. + + Returns: + (torch.Tensor): Model's output tensor. + """ + txt_feats = self.txt_feats.to(device=x.device, dtype=x.dtype) + if len(txt_feats) != len(x): + txt_feats = txt_feats.repeat(len(x), 1, 1) + ori_txt_feats = txt_feats.clone() + y, dt, embeddings = [], [], [] # outputs + for m in self.model: # except the head part + if m.f != -1: # if not from previous layer + x = y[m.f] if isinstance(m.f, int) else [x if j == -1 else y[j] for j in m.f] # from earlier layers + if profile: + self._profile_one_layer(m, x, dt) + if isinstance(m, C2fAttn): + x = m(x, txt_feats) + elif isinstance(m, WorldDetect): + x = m(x, ori_txt_feats) + elif isinstance(m, ImagePoolingAttn): + txt_feats = m(x, txt_feats) + else: + x = m(x) # run + + y.append(x if m.i in self.save else None) # save output + if visualize: + feature_visualization(x, m.type, m.i, save_dir=visualize) + if embed and m.i in embed: + embeddings.append(nn.functional.adaptive_avg_pool2d(x, (1, 1)).squeeze(-1).squeeze(-1)) # flatten + if m.i == max(embed): + return torch.unbind(torch.cat(embeddings, 1), dim=0) + return x + + class Ensemble(nn.ModuleList): """Ensemble of models.""" @@ -631,7 +713,7 @@ def torch_safe_load(weight): "ultralytics.yolo.data": "ultralytics.data", } ): # for legacy 8.0 Classify and Pose models - return torch.load(file, map_location="cpu"), file # load + ckpt = torch.load(file, map_location="cpu") except ModuleNotFoundError as e: # e.name is missing module name if e.name == "models": @@ -651,8 +733,17 @@ def torch_safe_load(weight): f"run a command with an official YOLOv8 model, i.e. 'yolo predict model=yolov8n.pt'" ) check_requirements(e.name) # install missing module + ckpt = torch.load(file, map_location="cpu") + + if not isinstance(ckpt, dict): + # File is likely a YOLO instance saved with i.e. torch.save(model, "saved_model.pt") + LOGGER.warning( + f"WARNING ⚠️ The file '{weight}' appears to be improperly saved or formatted. " + f"For optimal results, use model.save('filename.pt') to correctly save YOLO models." + ) + ckpt = {"model": ckpt.model} - return torch.load(file, map_location="cpu"), file # load + return ckpt, file # load def attempt_load_weights(weights, device=None, inplace=True, fuse=False): @@ -676,10 +767,9 @@ def attempt_load_weights(weights, device=None, inplace=True, fuse=False): # Module updates for m in ensemble.modules(): - t = type(m) - if t in (nn.Hardswish, nn.LeakyReLU, nn.ReLU, nn.ReLU6, nn.SiLU, Detect, Segment, Pose, OBB): + if hasattr(m, "inplace"): m.inplace = inplace - elif t is nn.Upsample and not hasattr(m, "recompute_scale_factor"): + elif isinstance(m, nn.Upsample) and not hasattr(m, "recompute_scale_factor"): m.recompute_scale_factor = None # torch 1.11.0 compatibility # Return model @@ -690,7 +780,7 @@ def attempt_load_weights(weights, device=None, inplace=True, fuse=False): LOGGER.info(f"Ensemble created with {weights}\n") for k in "names", "nc", "yaml": setattr(ensemble, k, getattr(ensemble[0], k)) - ensemble.stride = ensemble[torch.argmax(torch.tensor([m.stride.max() for m in ensemble])).int()].stride + ensemble.stride = ensemble[int(torch.argmax(torch.tensor([m.stride.max() for m in ensemble])))].stride assert all(ensemble[0].nc == m.nc for m in ensemble), f"Models differ in class counts {[m.nc for m in ensemble]}" return ensemble @@ -712,10 +802,9 @@ def attempt_load_one_weight(weight, device=None, inplace=True, fuse=False): # Module updates for m in model.modules(): - t = type(m) - if t in (nn.Hardswish, nn.LeakyReLU, nn.ReLU, nn.ReLU6, nn.SiLU, Detect, Segment, Pose, OBB): + if hasattr(m, "inplace"): m.inplace = inplace - elif t is nn.Upsample and not hasattr(m, "recompute_scale_factor"): + elif isinstance(m, nn.Upsample) and not hasattr(m, "recompute_scale_factor"): m.recompute_scale_factor = None # torch 1.11.0 compatibility # Return model and ckpt @@ -754,7 +843,7 @@ def parse_model(d, ch, verbose=True): # model_dict, input_channels(3) args[j] = locals()[a] if a in locals() else ast.literal_eval(a) n = n_ = max(round(n * depth), 1) if n > 1 else n # depth gain - if m in ( + if m in { Classify, Conv, ConvTranspose, @@ -769,6 +858,10 @@ def parse_model(d, ch, verbose=True): # model_dict, input_channels(3) C1, C2, C2f, + RepNCSPELAN4, + ADown, + SPPELAN, + C2fAttn, C3, C3TR, C3Ghost, @@ -776,18 +869,23 @@ def parse_model(d, ch, verbose=True): # model_dict, input_channels(3) DWConvTranspose2d, C3x, RepC3, - ): + }: c1, c2 = ch[f], args[0] if c2 != nc: # if c2 not equal to number of classes (i.e. for Classify() output) c2 = make_divisible(min(c2, max_channels) * width, 8) + if m is C2fAttn: + args[1] = make_divisible(min(args[1], max_channels // 2) * width, 8) # embed channels + args[2] = int( + max(round(min(args[2], max_channels // 2 // 32)) * width, 1) if args[2] > 1 else args[2] + ) # num heads args = [c1, c2, *args[1:]] - if m in (BottleneckCSP, C1, C2, C2f, C3, C3TR, C3Ghost, C3x, RepC3): + if m in (BottleneckCSP, C1, C2, C2f, C2fAttn, C3, C3TR, C3Ghost, C3x, RepC3): args.insert(2, n) # number of repeats n = 1 elif m is AIFI: args = [ch[f], *args] - elif m in (HGStem, HGBlock): + elif m in {HGStem, HGBlock}: c1, cm, c2 = ch[f], args[0], args[1] args = [c1, cm, c2, *args[2:]] if m is HGBlock: @@ -799,12 +897,18 @@ def parse_model(d, ch, verbose=True): # model_dict, input_channels(3) args = [ch[f]] elif m is Concat: c2 = sum(ch[x] for x in f) - elif m in (Detect, Segment, Pose, OBB): + elif m in {Detect, WorldDetect, Segment, Pose, OBB, ImagePoolingAttn}: args.append([ch[x] for x in f]) if m is Segment: args[2] = make_divisible(min(args[2], max_channels) * width, 8) elif m is RTDETRDecoder: # special case, channels arg must be passed in index 1 args.insert(1, [ch[x] for x in f]) + elif m is CBLinear: + c2 = args[0] + c1 = ch[f] + args = [c1, c2, *args[1:]] + elif m is CBFuse: + c2 = ch[f[-1]] else: c2 = ch[f] @@ -876,7 +980,7 @@ def guess_model_task(model): def cfg2task(cfg): """Guess from YAML dictionary.""" m = cfg["head"][-1][-2].lower() # output module name - if m in ("classify", "classifier", "cls", "fc"): + if m in {"classify", "classifier", "cls", "fc"}: return "classify" if m == "detect": return "detect" @@ -902,9 +1006,7 @@ def cfg2task(cfg): return cfg2task(eval(x)) for m in model.modules(): - if isinstance(m, Detect): - return "detect" - elif isinstance(m, Segment): + if isinstance(m, Segment): return "segment" elif isinstance(m, Classify): return "classify" @@ -912,6 +1014,8 @@ def cfg2task(cfg): return "pose" elif isinstance(m, OBB): return "obb" + elif isinstance(m, (Detect, WorldDetect)): + return "detect" # Guess from model filename if isinstance(model, (str, Path)): diff --git a/ultralytics/solutions/ai_gym.py b/ultralytics/solutions/ai_gym.py index 1b2730dc96b..b78cf598d80 100644 --- a/ultralytics/solutions/ai_gym.py +++ b/ultralytics/solutions/ai_gym.py @@ -46,14 +46,15 @@ def set_args( pose_type="pullup", ): """ - Configures the AIGym line_thickness, save image and view image parameters + Configures the AIGym line_thickness, save image and view image parameters. + Args: kpts_to_check (list): 3 keypoints for counting line_thickness (int): Line thickness for bounding boxes. view_img (bool): display the im0 pose_up_angle (float): Angle to set pose position up pose_down_angle (float): Angle to set pose position down - pose_type: "pushup", "pullup" or "abworkout" + pose_type (str): "pushup", "pullup" or "abworkout" """ self.kpts_to_check = kpts_to_check self.tf = line_thickness @@ -64,11 +65,12 @@ def set_args( def start_counting(self, im0, results, frame_count): """ - Function used to count the gym steps + Function used to count the gym steps. + Args: im0 (ndarray): Current frame from the video stream. - results: Pose estimation data - frame_count: store current frame count + results (list): Pose estimation data + frame_count (int): store current frame count """ self.im0 = im0 if frame_count == 1: @@ -78,14 +80,6 @@ def start_counting(self, im0, results, frame_count): self.keypoints = results[0].keypoints.data self.annotator = Annotator(im0, line_width=2) - num_keypoints = len(results[0]) - - # Resize self.angle, self.count, and self.stage if the number of keypoints has changed - if len(self.angle) != num_keypoints: - self.angle = [0] * num_keypoints - self.count = [0] * num_keypoints - self.stage = ["-" for _ in range(num_keypoints)] - for ind, k in enumerate(reversed(self.keypoints)): if self.pose_type in ["pushup", "pullup"]: self.angle[ind] = self.annotator.estimate_pose_angle( diff --git a/ultralytics/solutions/distance_calculation.py b/ultralytics/solutions/distance_calculation.py index 79c1785e38d..f09209ece20 100644 --- a/ultralytics/solutions/distance_calculation.py +++ b/ultralytics/solutions/distance_calculation.py @@ -107,7 +107,8 @@ def extract_tracks(self, tracks): def calculate_centroid(self, box): """ - Calculate the centroid of bounding box + Calculate the centroid of bounding box. + Args: box (list): Bounding box data """ @@ -115,31 +116,19 @@ def calculate_centroid(self, box): def calculate_distance(self, centroid1, centroid2): """ - Calculate distance between two centroids + Calculate distance between two centroids. + Args: centroid1 (point): First bounding box data centroid2 (point): Second bounding box data """ pixel_distance = math.sqrt((centroid1[0] - centroid2[0]) ** 2 + (centroid1[1] - centroid2[1]) ** 2) - return pixel_distance / self.pixel_per_meter - - def plot_distance_and_line(self, distance): - """ - Plot the distance and line on frame - Args: - distance (float): Distance between two centroids - """ - cv2.rectangle(self.im0, (15, 25), (280, 70), (255, 255, 255), -1) - cv2.putText( - self.im0, f"Distance : {distance:.2f}m", (20, 55), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 0, 0), 2, cv2.LINE_AA - ) - cv2.line(self.im0, self.centroids[0], self.centroids[1], self.line_color, 3) - cv2.circle(self.im0, self.centroids[0], 6, self.centroid_color, -1) - cv2.circle(self.im0, self.centroids[1], 6, self.centroid_color, -1) + return pixel_distance / self.pixel_per_meter, (pixel_distance / self.pixel_per_meter) * 1000 def start_process(self, im0, tracks): """ - Calculate distance between two bounding boxes based on tracking data + Calculate distance between two bounding boxes based on tracking data. + Args: im0 (nd array): Image tracks (list): List of tracks obtained from the object tracking process. @@ -166,8 +155,10 @@ def start_process(self, im0, tracks): centroid = self.calculate_centroid(self.selected_boxes[trk_id]) self.centroids.append(centroid) - distance = self.calculate_distance(self.centroids[0], self.centroids[1]) - self.plot_distance_and_line(distance) + distance_m, distance_mm = self.calculate_distance(self.centroids[0], self.centroids[1]) + self.annotator.plot_distance_and_line( + distance_m, distance_mm, self.centroids, self.line_color, self.centroid_color + ) self.centroids = [] diff --git a/ultralytics/solutions/heatmap.py b/ultralytics/solutions/heatmap.py index e4e7e9be4e9..f70e62bb728 100644 --- a/ultralytics/solutions/heatmap.py +++ b/ultralytics/solutions/heatmap.py @@ -167,9 +167,10 @@ def generate_heatmap(self, im0, tracks): """ self.im0 = im0 if tracks[0].boxes.id is None: + self.heatmap = np.zeros((int(self.imh), int(self.imw)), dtype=np.float32) if self.view_img and self.env_check: self.display_frames() - return + return im0 self.heatmap *= self.decay_factor # decay factor self.extract_results(tracks) self.annotator = Annotator(self.im0, self.count_txt_thickness, None) diff --git a/ultralytics/solutions/object_counter.py b/ultralytics/solutions/object_counter.py index 98231c3cd02..18f42c62493 100644 --- a/ultralytics/solutions/object_counter.py +++ b/ultralytics/solutions/object_counter.py @@ -38,11 +38,12 @@ def __init__(self): self.names = None # Classes names self.annotator = None # Annotator + self.window_name = "Ultralytics YOLOv8 Object Counter" # Object counting Information self.in_counts = 0 self.out_counts = 0 - self.counting_list = [] + self.counting_dict = {} self.count_txt_thickness = 0 self.count_txt_color = (0, 0, 0) self.count_color = (255, 255, 255) @@ -106,12 +107,12 @@ def set_args( print("Line Counter Initiated.") self.reg_pts = reg_pts self.counting_region = LineString(self.reg_pts) - elif len(reg_pts) == 4: + elif len(reg_pts) >= 3: print("Region Counter Initiated.") self.reg_pts = reg_pts self.counting_region = Polygon(self.reg_pts) else: - print("Invalid Region points provided, region_points can be 2 or 4") + print("Invalid Region points provided, region_points must be 2 for lines or >= 3 for polygons.") print("Using Line Counter Now") self.counting_region = LineString(self.reg_pts) @@ -136,7 +137,6 @@ def mouse_event_for_region(self, event, x, y, flags, params): cv2.EVENT_FLAG_SHIFTKEY, etc.). params (dict): Additional parameters you may want to pass to the function. """ - # global is_drawing, selected_point if event == cv2.EVENT_LBUTTONDOWN: for i, point in enumerate(self.reg_pts): if ( @@ -159,55 +159,70 @@ def mouse_event_for_region(self, event, x, y, flags, params): def extract_and_process_tracks(self, tracks): """Extracts and processes tracks for object counting in a video stream.""" - boxes = tracks[0].boxes.xyxy.cpu() - clss = tracks[0].boxes.cls.cpu().tolist() - track_ids = tracks[0].boxes.id.int().cpu().tolist() # Annotator Init and region drawing self.annotator = Annotator(self.im0, self.tf, self.names) - self.annotator.draw_region(reg_pts=self.reg_pts, color=self.region_color, thickness=self.region_thickness) - # Extract tracks - for box, track_id, cls in zip(boxes, track_ids, clss): - # Draw bounding box - self.annotator.box_label(box, label=f"{track_id}:{self.names[cls]}", color=colors(int(cls), True)) - - # Draw Tracks - track_line = self.track_history[track_id] - track_line.append((float((box[0] + box[2]) / 2), float((box[1] + box[3]) / 2))) - if len(track_line) > 30: - track_line.pop(0) + if tracks[0].boxes.id is not None: + boxes = tracks[0].boxes.xyxy.cpu() + clss = tracks[0].boxes.cls.cpu().tolist() + track_ids = tracks[0].boxes.id.int().cpu().tolist() + + # Extract tracks + for box, track_id, cls in zip(boxes, track_ids, clss): + # Draw bounding box + self.annotator.box_label(box, label=f"{track_id}:{self.names[cls]}", color=colors(int(track_id), True)) + + # Draw Tracks + track_line = self.track_history[track_id] + track_line.append((float((box[0] + box[2]) / 2), float((box[1] + box[3]) / 2))) + if len(track_line) > 30: + track_line.pop(0) + + # Draw track trails + if self.draw_tracks: + self.annotator.draw_centroid_and_tracks( + track_line, color=self.track_color, track_thickness=self.track_thickness + ) + + prev_position = self.track_history[track_id][-2] if len(self.track_history[track_id]) > 1 else None + centroid = Point((box[:2] + box[2:]) / 2) + + # Count objects + if len(self.reg_pts) >= 3: # any polygon + is_inside = self.counting_region.contains(centroid) + current_position = "in" if is_inside else "out" + + if prev_position is not None: + if self.counting_dict[track_id] != current_position and is_inside: + self.in_counts += 1 + self.counting_dict[track_id] = "in" + elif self.counting_dict[track_id] != current_position and not is_inside: + self.out_counts += 1 + self.counting_dict[track_id] = "out" + else: + self.counting_dict[track_id] = current_position - # Draw track trails - if self.draw_tracks: - self.annotator.draw_centroid_and_tracks( - track_line, color=self.track_color, track_thickness=self.track_thickness - ) + else: + self.counting_dict[track_id] = current_position - prev_position = self.track_history[track_id][-2] if len(self.track_history[track_id]) > 1 else None + elif len(self.reg_pts) == 2: + if prev_position is not None: + is_inside = (box[0] - prev_position[0]) * ( + self.counting_region.centroid.x - prev_position[0] + ) > 0 + current_position = "in" if is_inside else "out" - # Count objects - if len(self.reg_pts) == 4: - if ( - prev_position is not None - and self.counting_region.contains(Point(track_line[-1])) - and track_id not in self.counting_list - ): - self.counting_list.append(track_id) - if (box[0] - prev_position[0]) * (self.counting_region.centroid.x - prev_position[0]) > 0: - self.in_counts += 1 - else: - self.out_counts += 1 - - elif len(self.reg_pts) == 2: - if prev_position is not None: - distance = Point(track_line[-1]).distance(self.counting_region) - if distance < self.line_dist_thresh and track_id not in self.counting_list: - self.counting_list.append(track_id) - if (box[0] - prev_position[0]) * (self.counting_region.centroid.x - prev_position[0]) > 0: + if self.counting_dict[track_id] != current_position and is_inside: self.in_counts += 1 - else: + self.counting_dict[track_id] = "in" + elif self.counting_dict[track_id] != current_position and not is_inside: self.out_counts += 1 + self.counting_dict[track_id] = "out" + else: + self.counting_dict[track_id] = current_position + else: + self.counting_dict[track_id] = None incount_label = f"In Count : {self.in_counts}" outcount_label = f"OutCount : {self.out_counts}" @@ -234,12 +249,11 @@ def extract_and_process_tracks(self, tracks): def display_frames(self): """Display frame.""" if self.env_check: - cv2.namedWindow("Ultralytics YOLOv8 Object Counter") + self.annotator.draw_region(reg_pts=self.reg_pts, color=self.region_color, thickness=self.region_thickness) + cv2.namedWindow(self.window_name) if len(self.reg_pts) == 4: # only add mouse event If user drawn region - cv2.setMouseCallback( - "Ultralytics YOLOv8 Object Counter", self.mouse_event_for_region, {"region_points": self.reg_pts} - ) - cv2.imshow("Ultralytics YOLOv8 Object Counter", self.im0) + cv2.setMouseCallback(self.window_name, self.mouse_event_for_region, {"region_points": self.reg_pts}) + cv2.imshow(self.window_name, self.im0) # Break Window if cv2.waitKey(1) & 0xFF == ord("q"): return @@ -253,12 +267,7 @@ def start_counting(self, im0, tracks): tracks (list): List of tracks obtained from the object tracking process. """ self.im0 = im0 # store image - - if tracks[0].boxes.id is None: - if self.view_img: - self.display_frames() - return - self.extract_and_process_tracks(tracks) + self.extract_and_process_tracks(tracks) # draw region even if no objects if self.view_img: self.display_frames() diff --git a/ultralytics/solutions/speed_estimation.py b/ultralytics/solutions/speed_estimation.py index 52ce7dae4a1..f3f17959981 100644 --- a/ultralytics/solutions/speed_estimation.py +++ b/ultralytics/solutions/speed_estimation.py @@ -124,7 +124,8 @@ def plot_box_and_track(self, track_id, box, cls, track): def calculate_speed(self, trk_id, track): """ - Calculation of object speed + Calculation of object speed. + Args: trk_id (int): object track id. track (list): tracking history for tracks path drawing @@ -153,22 +154,24 @@ def calculate_speed(self, trk_id, track): self.trk_previous_times[trk_id] = time() self.trk_previous_points[trk_id] = track[-1] - def estimate_speed(self, im0, tracks): + def estimate_speed(self, im0, tracks, region_color=(255, 0, 0)): """ - Calculate object based on tracking data + Calculate object based on tracking data. + Args: im0 (nd array): Image tracks (list): List of tracks obtained from the object tracking process. + region_color (tuple): Color to use when drawing regions. """ self.im0 = im0 if tracks[0].boxes.id is None: if self.view_img and self.env_check: self.display_frames() - return + return im0 self.extract_tracks(tracks) self.annotator = Annotator(self.im0, line_width=2) - self.annotator.draw_region(reg_pts=self.reg_pts, color=(255, 0, 0), thickness=self.region_thickness) + self.annotator.draw_region(reg_pts=self.reg_pts, color=region_color, thickness=self.region_thickness) for box, trk_id, cls in zip(self.boxes, self.trk_ids, self.clss): track = self.store_track_info(trk_id, box) diff --git a/ultralytics/trackers/byte_tracker.py b/ultralytics/trackers/byte_tracker.py index 7e10b8d8505..01cbca97516 100644 --- a/ultralytics/trackers/byte_tracker.py +++ b/ultralytics/trackers/byte_tracker.py @@ -235,7 +235,7 @@ class BYTETracker: reset_id(): Resets the ID counter of STrack. joint_stracks(tlista, tlistb): Combines two lists of stracks. sub_stracks(tlista, tlistb): Filters out the stracks present in the second list from the first list. - remove_duplicate_stracks(stracksa, stracksb): Removes duplicate stracks based on IOU. + remove_duplicate_stracks(stracksa, stracksb): Removes duplicate stracks based on IoU. """ def __init__(self, args, frame_rate=30): @@ -373,7 +373,7 @@ def init_track(self, dets, scores, cls, img=None): return [STrack(xyxy, s, c) for (xyxy, s, c) in zip(dets, scores, cls)] if len(dets) else [] # detections def get_dists(self, tracks, detections): - """Calculates the distance between tracks and detections using IOU and fuses scores.""" + """Calculates the distance between tracks and detections using IoU and fuses scores.""" dists = matching.iou_distance(tracks, detections) # TODO: mot20 # if not self.args.mot20: @@ -428,7 +428,7 @@ def sub_stracks(tlista, tlistb): @staticmethod def remove_duplicate_stracks(stracksa, stracksb): - """Remove duplicate stracks with non-maximum IOU distance.""" + """Remove duplicate stracks with non-maximum IoU distance.""" pdist = matching.iou_distance(stracksa, stracksb) pairs = np.where(pdist < 0.15) dupa, dupb = [], [] diff --git a/ultralytics/trackers/track.py b/ultralytics/trackers/track.py index c80c54da0f0..7146a401789 100644 --- a/ultralytics/trackers/track.py +++ b/ultralytics/trackers/track.py @@ -38,7 +38,10 @@ def on_predict_start(predictor: object, persist: bool = False) -> None: for _ in range(predictor.dataset.bs): tracker = TRACKER_MAP[cfg.tracker_type](args=cfg, frame_rate=30) trackers.append(tracker) + if predictor.dataset.mode != "stream": # only need one tracker for other modes. + break predictor.trackers = trackers + predictor.vid_path = [None] * predictor.dataset.bs # for determining when to reset tracker on new video def on_predict_postprocess_end(predictor: object, persist: bool = False) -> None: @@ -49,18 +52,21 @@ def on_predict_postprocess_end(predictor: object, persist: bool = False) -> None predictor (object): The predictor object containing the predictions. persist (bool, optional): Whether to persist the trackers if they already exist. Defaults to False. """ - bs = predictor.dataset.bs path, im0s = predictor.batch[:2] is_obb = predictor.args.task == "obb" - for i in range(bs): - if not persist and predictor.vid_path[i] != str(predictor.save_dir / Path(path[i]).name): # new video - predictor.trackers[i].reset() + is_stream = predictor.dataset.mode == "stream" + for i in range(len(im0s)): + tracker = predictor.trackers[i if is_stream else 0] + vid_path = predictor.save_dir / Path(path[i]).name + if not persist and predictor.vid_path[i if is_stream else 0] != vid_path: + tracker.reset() + predictor.vid_path[i if is_stream else 0] = vid_path det = (predictor.results[i].obb if is_obb else predictor.results[i].boxes).cpu().numpy() if len(det) == 0: continue - tracks = predictor.trackers[i].update(det, im0s[i]) + tracks = tracker.update(det, im0s[i]) if len(tracks) == 0: continue idx = tracks[:, -1].astype(int) diff --git a/ultralytics/trackers/utils/gmc.py b/ultralytics/trackers/utils/gmc.py index ddcc521350f..806f1b5ed0f 100644 --- a/ultralytics/trackers/utils/gmc.py +++ b/ultralytics/trackers/utils/gmc.py @@ -18,9 +18,9 @@ class GMC: Attributes: method (str): The method used for tracking. Options include 'orb', 'sift', 'ecc', 'sparseOptFlow', 'none'. downscale (int): Factor by which to downscale the frames for processing. - prevFrame (np.array): Stores the previous frame for tracking. + prevFrame (np.ndarray): Stores the previous frame for tracking. prevKeyPoints (list): Stores the keypoints from the previous frame. - prevDescriptors (np.array): Stores the descriptors from the previous frame. + prevDescriptors (np.ndarray): Stores the descriptors from the previous frame. initializedFirstFrame (bool): Flag to indicate if the first frame has been processed. Methods: @@ -82,11 +82,11 @@ def apply(self, raw_frame: np.array, detections: list = None) -> np.array: Apply object detection on a raw frame using specified method. Args: - raw_frame (np.array): The raw frame to be processed. + raw_frame (np.ndarray): The raw frame to be processed. detections (list): List of detections to be used in the processing. Returns: - (np.array): Processed frame. + (np.ndarray): Processed frame. Examples: >>> gmc = GMC() @@ -97,22 +97,21 @@ def apply(self, raw_frame: np.array, detections: list = None) -> np.array: if self.method in ["orb", "sift"]: return self.applyFeatures(raw_frame, detections) elif self.method == "ecc": - return self.applyEcc(raw_frame, detections) + return self.applyEcc(raw_frame) elif self.method == "sparseOptFlow": - return self.applySparseOptFlow(raw_frame, detections) + return self.applySparseOptFlow(raw_frame) else: return np.eye(2, 3) - def applyEcc(self, raw_frame: np.array, detections: list = None) -> np.array: + def applyEcc(self, raw_frame: np.array) -> np.array: """ Apply ECC algorithm to a raw frame. Args: - raw_frame (np.array): The raw frame to be processed. - detections (list): List of detections to be used in the processing. + raw_frame (np.ndarray): The raw frame to be processed. Returns: - (np.array): Processed frame. + (np.ndarray): Processed frame. Examples: >>> gmc = GMC() @@ -144,7 +143,7 @@ def applyEcc(self, raw_frame: np.array, detections: list = None) -> np.array: # Run the ECC algorithm. The results are stored in warp_matrix. # (cc, H) = cv2.findTransformECC(self.prevFrame, frame, H, self.warp_mode, self.criteria) try: - (cc, H) = cv2.findTransformECC(self.prevFrame, frame, H, self.warp_mode, self.criteria, None, 1) + (_, H) = cv2.findTransformECC(self.prevFrame, frame, H, self.warp_mode, self.criteria, None, 1) except Exception as e: LOGGER.warning(f"WARNING: find transform failed. Set warp as identity {e}") @@ -155,11 +154,11 @@ def applyFeatures(self, raw_frame: np.array, detections: list = None) -> np.arra Apply feature-based methods like ORB or SIFT to a raw frame. Args: - raw_frame (np.array): The raw frame to be processed. + raw_frame (np.ndarray): The raw frame to be processed. detections (list): List of detections to be used in the processing. Returns: - (np.array): Processed frame. + (np.ndarray): Processed frame. Examples: >>> gmc = GMC() @@ -258,7 +257,7 @@ def applyFeatures(self, raw_frame: np.array, detections: list = None) -> np.arra # import matplotlib.pyplot as plt # matches_img = np.hstack((self.prevFrame, frame)) # matches_img = cv2.cvtColor(matches_img, cv2.COLOR_GRAY2BGR) - # W = np.size(self.prevFrame, 1) + # W = self.prevFrame.shape[1] # for m in goodMatches: # prev_pt = np.array(self.prevKeyPoints[m.queryIdx].pt, dtype=np.int_) # curr_pt = np.array(keypoints[m.trainIdx].pt, dtype=np.int_) @@ -275,7 +274,7 @@ def applyFeatures(self, raw_frame: np.array, detections: list = None) -> np.arra # plt.show() # Find rigid matrix - if (np.size(prevPoints, 0) > 4) and (np.size(prevPoints, 0) == np.size(prevPoints, 0)): + if prevPoints.shape[0] > 4: H, inliers = cv2.estimateAffinePartial2D(prevPoints, currPoints, cv2.RANSAC) # Handle downscale @@ -292,16 +291,15 @@ def applyFeatures(self, raw_frame: np.array, detections: list = None) -> np.arra return H - def applySparseOptFlow(self, raw_frame: np.array, detections: list = None) -> np.array: + def applySparseOptFlow(self, raw_frame: np.array) -> np.array: """ Apply Sparse Optical Flow method to a raw frame. Args: - raw_frame (np.array): The raw frame to be processed. - detections (list): List of detections to be used in the processing. + raw_frame (np.ndarray): The raw frame to be processed. Returns: - (np.array): Processed frame. + (np.ndarray): Processed frame. Examples: >>> gmc = GMC() @@ -328,7 +326,7 @@ def applySparseOptFlow(self, raw_frame: np.array, detections: list = None) -> np return H # Find correspondences - matchedKeypoints, status, err = cv2.calcOpticalFlowPyrLK(self.prevFrame, frame, self.prevKeyPoints, None) + matchedKeypoints, status, _ = cv2.calcOpticalFlowPyrLK(self.prevFrame, frame, self.prevKeyPoints, None) # Leave good correspondences only prevPoints = [] @@ -343,8 +341,8 @@ def applySparseOptFlow(self, raw_frame: np.array, detections: list = None) -> np currPoints = np.array(currPoints) # Find rigid matrix - if np.size(prevPoints, 0) > 4 and np.size(prevPoints, 0) == np.size(prevPoints, 0): - H, inliers = cv2.estimateAffinePartial2D(prevPoints, currPoints, cv2.RANSAC) + if (prevPoints.shape[0] > 4) and (prevPoints.shape[0] == prevPoints.shape[0]): + H, _ = cv2.estimateAffinePartial2D(prevPoints, currPoints, cv2.RANSAC) if self.downscale > 1.0: H[0, 2] *= self.downscale diff --git a/ultralytics/utils/__init__.py b/ultralytics/utils/__init__.py index 07641c65802..befa081f888 100644 --- a/ultralytics/utils/__init__.py +++ b/ultralytics/utils/__init__.py @@ -9,6 +9,7 @@ import subprocess import sys import threading +import time import urllib import uuid from pathlib import Path @@ -112,12 +113,15 @@ class TQDM(tqdm_original): Args: *args (list): Positional arguments passed to original tqdm. - **kwargs (dict): Keyword arguments, with custom defaults applied. + **kwargs (any): Keyword arguments, with custom defaults applied. """ def __init__(self, *args, **kwargs): - """Initialize custom Ultralytics tqdm class with different default arguments.""" - # Set new default values (these can still be overridden when calling TQDM) + """ + Initialize custom Ultralytics tqdm class with different default arguments. + + Note these can still be overridden when calling TQDM. + """ kwargs["disable"] = not VERBOSE or kwargs.get("disable", False) # logical 'and' with default value if passed kwargs.setdefault("bar_format", TQDM_BAR_FORMAT) # override default value if passed super().__init__(*args, **kwargs) @@ -208,7 +212,7 @@ def decorator(func): def wrapper(*args, **kwargs): """Sets rc parameters and backend, calls the original function, and restores the settings.""" original_backend = plt.get_backend() - if backend != original_backend: + if backend.lower() != original_backend.lower(): plt.close("all") # auto-close()ing of figures upon backend switching is deprecated since 3.8 plt.switch_backend(backend) @@ -377,7 +381,7 @@ def yaml_print(yaml_file: Union[str, Path, dict]) -> None: yaml_file: The file path of the YAML file or a YAML-formatted dictionary. Returns: - None + (None) """ yaml_dict = yaml_load(yaml_file) if isinstance(yaml_file, (str, Path)) else yaml_file dump = yaml.dump(yaml_dict, sort_keys=False, allow_unicode=True) @@ -610,7 +614,7 @@ def get_ubuntu_version(): def get_user_config_dir(sub_dir="Ultralytics"): """ - Get the user config directory. + Return the appropriate config directory based on the environment operating system. Args: sub_dir (str): The name of the subdirectory to create. @@ -618,7 +622,6 @@ def get_user_config_dir(sub_dir="Ultralytics"): Returns: (Path): The path to the user config directory. """ - # Return the appropriate config directory for each operating system if WINDOWS: path = Path.home() / "AppData" / "Roaming" / sub_dir elif MACOS: # macOS @@ -719,9 +722,19 @@ def remove_colorstr(input_string): class TryExcept(contextlib.ContextDecorator): """ - YOLOv8 TryExcept class. + Ultralytics TryExcept class. Use as @TryExcept() decorator or 'with TryExcept():' context manager. - Use as @TryExcept() decorator or 'with TryExcept():' context manager. + Examples: + As a decorator: + >>> @TryExcept(msg="Error occurred in func", verbose=True) + >>> def func(): + >>> # Function logic here + >>> pass + + As a context manager: + >>> with TryExcept(msg="Error occurred in block", verbose=True): + >>> # Code block here + >>> pass """ def __init__(self, msg="", verbose=True): @@ -740,6 +753,65 @@ def __exit__(self, exc_type, value, traceback): return True +class Retry(contextlib.ContextDecorator): + """ + Retry class for function execution with exponential backoff. + + Can be used as a decorator or a context manager to retry a function or block of code on exceptions, up to a + specified number of times with an exponentially increasing delay between retries. + + Examples: + Example usage as a decorator: + >>> @Retry(times=3, delay=2) + >>> def test_func(): + >>> # Replace with function logic that may raise exceptions + >>> return True + + Example usage as a context manager: + >>> with Retry(times=3, delay=2): + >>> # Replace with code block that may raise exceptions + >>> pass + """ + + def __init__(self, times=3, delay=2): + """Initialize Retry class with specified number of retries and delay.""" + self.times = times + self.delay = delay + self._attempts = 0 + + def __call__(self, func): + """Decorator implementation for Retry with exponential backoff.""" + + def wrapped_func(*args, **kwargs): + """Applies retries to the decorated function or method.""" + self._attempts = 0 + while self._attempts < self.times: + try: + return func(*args, **kwargs) + except Exception as e: + self._attempts += 1 + print(f"Retry {self._attempts}/{self.times} failed: {e}") + if self._attempts >= self.times: + raise e + time.sleep(self.delay * (2**self._attempts)) # exponential backoff delay + + return wrapped_func + + def __enter__(self): + """Enter the runtime context related to this object.""" + self._attempts = 0 + + def __exit__(self, exc_type, exc_value, traceback): + """Exit the runtime context related to this object with exponential backoff.""" + if exc_type is not None: + self._attempts += 1 + if self._attempts < self.times: + print(f"Retry {self._attempts}/{self.times} failed: {exc_value}") + time.sleep(self.delay * (2**self._attempts)) # exponential backoff delay + return True # Suppresses the exception and retries + return False # Re-raises the exception if retries are exhausted + + def threaded(func): """ Multi-threads a target function by default and returns the thread or function result. @@ -886,15 +958,25 @@ def __init__(self, file=SETTINGS_YAML, version="0.0.4"): correct_keys = self.keys() == self.defaults.keys() correct_types = all(type(a) is type(b) for a, b in zip(self.values(), self.defaults.values())) correct_version = check_version(self["settings_version"], self.version) + help_msg = ( + f"\nView settings with 'yolo settings' or at '{self.file}'" + "\nUpdate settings with 'yolo settings key=value', i.e. 'yolo settings runs_dir=path/to/dir'. " + "For help see https://docs.ultralytics.com/quickstart/#ultralytics-settings." + ) if not (correct_keys and correct_types and correct_version): LOGGER.warning( "WARNING ⚠️ Ultralytics settings reset to default values. This may be due to a possible problem " - "with your settings or a recent ultralytics package update. " - f"\nView settings with 'yolo settings' or at '{self.file}'" - "\nUpdate settings with 'yolo settings key=value', i.e. 'yolo settings runs_dir=path/to/dir'." + f"with your settings or a recent ultralytics package update. {help_msg}" ) self.reset() + if self.get("datasets_dir") == self.get("runs_dir"): + LOGGER.warning( + f"WARNING ⚠️ Ultralytics setting 'datasets_dir: {self.get('datasets_dir')}' " + f"must be different than 'runs_dir: {self.get('runs_dir')}'. " + f"Please change one to avoid possible issues during training. {help_msg}" + ) + def load(self): """Loads settings from the YAML file.""" super().update(yaml_load(self.file)) diff --git a/ultralytics/utils/benchmarks.py b/ultralytics/utils/benchmarks.py index dbb95183032..3bc63510e75 100644 --- a/ultralytics/utils/benchmarks.py +++ b/ultralytics/utils/benchmarks.py @@ -21,7 +21,7 @@ TensorFlow Edge TPU | `edgetpu` | yolov8n_edgetpu.tflite TensorFlow.js | `tfjs` | yolov8n_web_model/ PaddlePaddle | `paddle` | yolov8n_paddle_model/ -ncnn | `ncnn` | yolov8n_ncnn_model/ +NCNN | `ncnn` | yolov8n_ncnn_model/ """ import glob @@ -32,11 +32,11 @@ import numpy as np import torch.cuda -from ultralytics import YOLO +from ultralytics import YOLO, YOLOWorld from ultralytics.cfg import TASK2DATA, TASK2METRIC from ultralytics.engine.exporter import export_formats from ultralytics.utils import ASSETS, LINUX, LOGGER, MACOS, TQDM, WEIGHTS_DIR -from ultralytics.utils.checks import check_requirements, check_yolo +from ultralytics.utils.checks import IS_PYTHON_3_12, check_requirements, check_yolo from ultralytics.utils.files import file_size from ultralytics.utils.torch_utils import select_device @@ -84,12 +84,20 @@ def benchmark( emoji, filename = "❌", None # export defaults try: # Checks - if i == 9: + if i == 9: # Edge TPU assert LINUX, "Edge TPU export only supported on Linux" - elif i == 7: + elif i == 7: # TF GraphDef assert model.task != "obb", "TensorFlow GraphDef not supported for OBB task" elif i in {5, 10}: # CoreML and TF.js assert MACOS or LINUX, "export only supported on macOS and Linux" + if i in {3, 5}: # CoreML and OpenVINO + assert not IS_PYTHON_3_12, "CoreML and OpenVINO not supported on Python 3.12" + if i in {6, 7, 8, 9, 10}: # All TF formats + assert not isinstance(model, YOLOWorld), "YOLOWorldv2 TensorFlow exports not supported by onnx2tf yet" + if i in {11}: # Paddle + assert not isinstance(model, YOLOWorld), "YOLOWorldv2 Paddle exports not supported yet" + if i in {12}: # NCNN + assert not isinstance(model, YOLOWorld), "YOLOWorldv2 NCNN exports not supported yet" if "cpu" in device.type: assert cpu, "inference not supported on CPU" if "cuda" in device.type: @@ -147,8 +155,7 @@ class ProfileModels: """ ProfileModels class for profiling different models on ONNX and TensorRT. - This class profiles the performance of different models, provided their paths. The profiling includes parameters such as - model speed and FLOPs. + This class profiles the performance of different models, returning results such as model speed and FLOPs. Attributes: paths (list): Paths of the models to profile. @@ -188,9 +195,9 @@ def __init__( num_warmup_runs (int, optional): Number of warmup runs before the actual profiling starts. Default is 10. min_time (float, optional): Minimum time in seconds for profiling a model. Default is 60. imgsz (int, optional): Size of the image used during profiling. Default is 640. - half (bool, optional): Flag to indicate whether to use half-precision floating point for profiling. Default is True. + half (bool, optional): Flag to indicate whether to use half-precision floating point for profiling. trt (bool, optional): Flag to indicate whether to profile using TensorRT. Default is True. - device (torch.device, optional): Device used for profiling. If None, it is determined automatically. Default is None. + device (torch.device, optional): Device used for profiling. If None, it is determined automatically. """ self.paths = paths self.num_timed_runs = num_timed_runs @@ -258,10 +265,10 @@ def get_onnx_model_info(self, onnx_file: str): """Retrieves the information including number of layers, parameters, gradients and FLOPs for an ONNX model file. """ - # return (num_layers, num_params, num_gradients, num_flops) - return 0.0, 0.0, 0.0, 0.0 + return 0.0, 0.0, 0.0, 0.0 # return (num_layers, num_params, num_gradients, num_flops) - def iterative_sigma_clipping(self, data, sigma=2, max_iters=3): + @staticmethod + def iterative_sigma_clipping(data, sigma=2, max_iters=3): """Applies an iterative sigma clipping algorithm to the given data times number of iterations.""" data = np.array(data) for _ in range(max_iters): @@ -359,9 +366,13 @@ def profile_onnx_model(self, onnx_file: str, eps: float = 1e-3): def generate_table_row(self, model_name, t_onnx, t_engine, model_info): """Generates a formatted string for a table row that includes model performance and metric details.""" layers, params, gradients, flops = model_info - return f"| {model_name:18s} | {self.imgsz} | - | {t_onnx[0]:.2f} ± {t_onnx[1]:.2f} ms | {t_engine[0]:.2f} ± {t_engine[1]:.2f} ms | {params / 1e6:.1f} | {flops:.1f} |" + return ( + f"| {model_name:18s} | {self.imgsz} | - | {t_onnx[0]:.2f} ± {t_onnx[1]:.2f} ms | {t_engine[0]:.2f} ± " + f"{t_engine[1]:.2f} ms | {params / 1e6:.1f} | {flops:.1f} |" + ) - def generate_results_dict(self, model_name, t_onnx, t_engine, model_info): + @staticmethod + def generate_results_dict(model_name, t_onnx, t_engine, model_info): """Generates a dictionary of model details including name, parameters, GFLOPS and speed metrics.""" layers, params, gradients, flops = model_info return { @@ -372,11 +383,18 @@ def generate_results_dict(self, model_name, t_onnx, t_engine, model_info): "model/speed_TensorRT(ms)": round(t_engine[0], 3), } - def print_table(self, table_rows): + @staticmethod + def print_table(table_rows): """Formats and prints a comparison table for different models with given statistics and performance data.""" gpu = torch.cuda.get_device_name(0) if torch.cuda.is_available() else "GPU" - header = f"| Model | size
(pixels) | mAPval
50-95 | Speed
CPU ONNX
(ms) | Speed
{gpu} TensorRT
(ms) | params
(M) | FLOPs
(B) |" - separator = "|-------------|---------------------|--------------------|------------------------------|-----------------------------------|------------------|-----------------|" + header = ( + f"| Model | size
(pixels) | mAPval
50-95 | Speed
CPU ONNX
(ms) | " + f"Speed
{gpu} TensorRT
(ms) | params
(M) | FLOPs
(B) |" + ) + separator = ( + "|-------------|---------------------|--------------------|------------------------------|" + "-----------------------------------|------------------|-----------------|" + ) print(f"\n\n{header}") print(separator) diff --git a/ultralytics/utils/callbacks/hub.py b/ultralytics/utils/callbacks/hub.py index 8d93093cc28..cdb42b9bc9b 100644 --- a/ultralytics/utils/callbacks/hub.py +++ b/ultralytics/utils/callbacks/hub.py @@ -33,6 +33,11 @@ def on_fit_epoch_end(trainer): all_plots = {**all_plots, **model_info_for_loggers(trainer)} session.metrics_queue[trainer.epoch] = json.dumps(all_plots) + + # If any metrics fail to upload, add them to the queue to attempt uploading again. + if session.metrics_upload_failed_queue: + session.metrics_queue.update(session.metrics_upload_failed_queue) + if time() - session.timers["metrics"] > session.rate_limits["metrics"]: session.upload_metrics() session.timers["metrics"] = time() # reset timer @@ -46,7 +51,7 @@ def on_model_save(trainer): # Upload checkpoints with rate limiting is_best = trainer.best_fitness == trainer.fitness if time() - session.timers["ckpt"] > session.rate_limits["ckpt"]: - LOGGER.info(f"{PREFIX}Uploading checkpoint {HUB_WEB_ROOT}/models/{session.model_id}") + LOGGER.info(f"{PREFIX}Uploading checkpoint {HUB_WEB_ROOT}/models/{session.model.id}") session.upload_model(trainer.epoch, trainer.last, is_best) session.timers["ckpt"] = time() # reset timer diff --git a/ultralytics/utils/callbacks/mlflow.py b/ultralytics/utils/callbacks/mlflow.py index 9676fe85951..e5546200f37 100644 --- a/ultralytics/utils/callbacks/mlflow.py +++ b/ultralytics/utils/callbacks/mlflow.py @@ -58,6 +58,7 @@ def on_pretrain_routine_end(trainer): MLFLOW_TRACKING_URI: The URI for MLflow tracking. If not set, defaults to 'runs/mlflow'. MLFLOW_EXPERIMENT_NAME: The name of the MLflow experiment. If not set, defaults to trainer.args.project. MLFLOW_RUN: The name of the MLflow run. If not set, defaults to trainer.args.name. + MLFLOW_KEEP_RUN_ACTIVE: Boolean indicating whether to keep the MLflow run active after the end of the training phase. """ global mlflow @@ -86,9 +87,12 @@ def on_train_epoch_end(trainer): """Log training metrics at the end of each train epoch to MLflow.""" if mlflow: mlflow.log_metrics( - metrics=SANITIZE(trainer.label_loss_items(trainer.tloss, prefix="train")), step=trainer.epoch + metrics={ + **SANITIZE(trainer.lr), + **SANITIZE(trainer.label_loss_items(trainer.tloss, prefix="train")), + }, + step=trainer.epoch, ) - mlflow.log_metrics(metrics=SANITIZE(trainer.lr), step=trainer.epoch) def on_fit_epoch_end(trainer): @@ -104,8 +108,13 @@ def on_train_end(trainer): for f in trainer.save_dir.glob("*"): # log all other files in save_dir if f.suffix in {".png", ".jpg", ".csv", ".pt", ".yaml"}: mlflow.log_artifact(str(f)) + keep_run_active = os.environ.get("MLFLOW_KEEP_RUN_ACTIVE", "False").lower() in ("true") + if keep_run_active: + LOGGER.info(f"{PREFIX}mlflow run still alive, remember to close it using mlflow.end_run()") + else: + mlflow.end_run() + LOGGER.debug(f"{PREFIX}mlflow run ended") - mlflow.end_run() LOGGER.info( f"{PREFIX}results logged to {mlflow.get_tracking_uri()}\n" f"{PREFIX}disable with 'yolo settings mlflow=False'" @@ -115,6 +124,7 @@ def on_train_end(trainer): callbacks = ( { "on_pretrain_routine_end": on_pretrain_routine_end, + "on_train_epoch_end": on_train_epoch_end, "on_fit_epoch_end": on_fit_epoch_end, "on_train_end": on_train_end, } diff --git a/ultralytics/utils/callbacks/tensorboard.py b/ultralytics/utils/callbacks/tensorboard.py index 98107e8cad3..59024ee9d4a 100644 --- a/ultralytics/utils/callbacks/tensorboard.py +++ b/ultralytics/utils/callbacks/tensorboard.py @@ -45,6 +45,7 @@ def _log_tensorboard_graph(trainer): # Try simple method first (YOLO) with contextlib.suppress(Exception): + trainer.model.eval() # place in .eval() mode to avoid BatchNorm statistics changes WRITER.add_graph(torch.jit.trace(de_parallel(trainer.model), im, strict=False), []) LOGGER.info(f"{PREFIX}model graph visualization added ✅") return diff --git a/ultralytics/utils/callbacks/wb.py b/ultralytics/utils/callbacks/wb.py index 7f0f57ac4a4..25a1b6454db 100644 --- a/ultralytics/utils/callbacks/wb.py +++ b/ultralytics/utils/callbacks/wb.py @@ -23,8 +23,9 @@ def _custom_table(x, y, classes, title="Precision Recall Curve", x_title="Recall """ Create and log a custom metric visualization to wandb.plot.pr_curve. - This function crafts a custom metric visualization that mimics the behavior of wandb's default precision-recall curve - while allowing for enhanced customization. The visual metric is useful for monitoring model performance across different classes. + This function crafts a custom metric visualization that mimics the behavior of wandb's default precision-recall + curve while allowing for enhanced customization. The visual metric is useful for monitoring model performance across + different classes. Args: x (List): Values for the x-axis; expected to have length N. @@ -64,8 +65,8 @@ def _plot_curve( Args: x (np.ndarray): Data points for the x-axis with length N. - y (np.ndarray): Corresponding data points for the y-axis with shape CxN, where C represents the number of classes. - names (list, optional): Names of the classes corresponding to the y-axis data; length C. Defaults to an empty list. + y (np.ndarray): Corresponding data points for the y-axis with shape CxN, where C is the number of classes. + names (list, optional): Names of the classes corresponding to the y-axis data; length C. Defaults to []. id (str, optional): Unique identifier for the logged data in wandb. Defaults to 'precision-recall'. title (str, optional): Title for the visualization plot. Defaults to 'Precision Recall Curve'. x_title (str, optional): Label for the x-axis. Defaults to 'Recall'. diff --git a/ultralytics/utils/checks.py b/ultralytics/utils/checks.py index ea4f757d613..c44ac0b6206 100644 --- a/ultralytics/utils/checks.py +++ b/ultralytics/utils/checks.py @@ -9,7 +9,6 @@ import re import shutil import subprocess -import sys import time from importlib import metadata from pathlib import Path @@ -46,6 +45,8 @@ url2file, ) +PYTHON_VERSION = platform.python_version() + def parse_requirements(file_path=ROOT.parent / "requirements.txt", package=""): """ @@ -109,7 +110,7 @@ def is_ascii(s) -> bool: s (str): String to be checked. Returns: - bool: True if the string is composed only of ASCII characters, False otherwise. + (bool): True if the string is composed only of ASCII characters, False otherwise. """ # Convert list, tuple, None, etc. to string s = str(s) @@ -141,6 +142,8 @@ def check_imgsz(imgsz, stride=32, min_dim=1, max_dim=2, floor=0): imgsz = [imgsz] elif isinstance(imgsz, (list, tuple)): imgsz = list(imgsz) + elif isinstance(imgsz, str): # i.e. '640' or '[640,640]' + imgsz = [int(imgsz)] if imgsz.isnumeric() else eval(imgsz) else: raise TypeError( f"'imgsz={imgsz}' is of invalid type {type(imgsz).__name__}. " @@ -314,7 +317,7 @@ def check_font(font="Arial.ttf"): # Download to USER_CONFIG_DIR if missing url = f"https://ultralytics.com/assets/{name}" - if downloads.is_url(url): + if downloads.is_url(url, check=True): downloads.safe_download(url=url, file=file) return file @@ -327,9 +330,9 @@ def check_python(minimum: str = "3.8.0") -> bool: minimum (str): Required minimum version of python. Returns: - None + (bool): Whether the installed Python version meets the minimum constraints. """ - return check_version(platform.python_version(), minimum, name="Python ", hard=True) + return check_version(PYTHON_VERSION, minimum, name="Python ", hard=True) @TryExcept() @@ -492,12 +495,12 @@ def check_file(file, suffix="", download=True, hard=True): downloads.safe_download(url=url, file=file, unzip=False) return file else: # search - files = glob.glob(str(ROOT / "cfg" / "**" / file), recursive=True) # find file + files = glob.glob(str(ROOT / "**" / file), recursive=True) or glob.glob(str(ROOT.parent / file)) # find file if not files and hard: raise FileNotFoundError(f"'{file}' does not exist") elif len(files) > 1 and hard: raise FileNotFoundError(f"Multiple files match '{file}', specify exact path: {files}") - return files[0] if len(files) else [] # return file + return files[0] if len(files) else [] if hard else file # return file def check_yaml(file, suffix=(".yaml", ".yml"), hard=True): @@ -580,7 +583,7 @@ def collect_system_info(): LOGGER.info( f"\n{'OS':<20}{platform.platform()}\n" f"{'Environment':<20}{ENVIRONMENT}\n" - f"{'Python':<20}{sys.version.split()[0]}\n" + f"{'Python':<20}{PYTHON_VERSION}\n" f"{'Install':<20}{'git' if is_git_dir() else 'pip' if is_pip_package() else 'other'}\n" f"{'RAM':<20}{ram_info:.2f} GB\n" f"{'CPU':<20}{get_cpu_info()}\n" @@ -722,3 +725,7 @@ def cuda_is_available() -> bool: (bool): True if one or more NVIDIA GPUs are available, False otherwise. """ return cuda_device_count() > 0 + + +# Define constants +IS_PYTHON_3_12 = PYTHON_VERSION.startswith("3.12") diff --git a/ultralytics/utils/downloads.py b/ultralytics/utils/downloads.py index 13f6906d636..6191ade2331 100644 --- a/ultralytics/utils/downloads.py +++ b/ultralytics/utils/downloads.py @@ -20,16 +20,20 @@ [f"yolov8{k}{suffix}.pt" for k in "nsmlx" for suffix in ("", "-cls", "-seg", "-pose", "-obb")] + [f"yolov5{k}{resolution}u.pt" for k in "nsmlx" for resolution in ("", "6")] + [f"yolov3{k}u.pt" for k in ("", "-spp", "-tiny")] + + [f"yolov8{k}-world.pt" for k in "smlx"] + + [f"yolov8{k}-worldv2.pt" for k in "smlx"] + + [f"yolov9{k}.pt" for k in "ce"] + [f"yolo_nas_{k}.pt" for k in "sml"] + [f"sam_{k}.pt" for k in "bl"] + [f"FastSAM-{k}.pt" for k in "sx"] + [f"rtdetr-{k}.pt" for k in "lx"] + ["mobile_sam.pt"] + + ["calibration_image_sample_data_20x128x128x3_float32.npy.zip"] ) GITHUB_ASSETS_STEMS = [Path(k).stem for k in GITHUB_ASSETS_NAMES] -def is_url(url, check=True): +def is_url(url, check=False): """ Validates if the given string is a URL and optionally checks if the URL exists online. @@ -39,7 +43,7 @@ def is_url(url, check=True): Defaults to True. Returns: - (bool): Returns True if the string is a valid URL. If 'check' is True, also returns True if the URL exists online. + (bool): Returns True for a valid URL. If 'check' is True, also returns True if the URL exists online. Returns False otherwise. Example: @@ -187,12 +191,13 @@ def unzip_file(file, path=None, exclude=(".DS_Store", "__MACOSX"), exist_ok=Fals return path # return unzip dir -def check_disk_space(url="https://ultralytics.com/assets/coco128.zip", sf=1.5, hard=True): +def check_disk_space(url="https://ultralytics.com/assets/coco128.zip", path=Path.cwd(), sf=1.5, hard=True): """ Check if there is sufficient disk space to download and store a file. Args: url (str, optional): The URL to the file. Defaults to 'https://ultralytics.com/assets/coco128.zip'. + path (str | Path, optional): The path or drive to check the available free space on. sf (float, optional): Safety factor, the multiplier for the required free space. Defaults to 2.0. hard (bool, optional): Whether to throw an error or not on insufficient disk space. Defaults to True. @@ -208,7 +213,7 @@ def check_disk_space(url="https://ultralytics.com/assets/coco128.zip", sf=1.5, h # Check file size gib = 1 << 30 # bytes per GiB data = int(r.headers.get("Content-Length", 0)) / gib # file size (GB) - total, used, free = (x / gib for x in shutil.disk_usage(Path.cwd())) # bytes + total, used, free = (x / gib for x in shutil.disk_usage(path)) # bytes if data * sf < free: return True # sufficient space @@ -315,7 +320,7 @@ def safe_download( desc = f"Downloading {url if gdrive else clean_url(url)} to '{f}'" LOGGER.info(f"{desc}...") f.parent.mkdir(parents=True, exist_ok=True) # make directory if missing - check_disk_space(url) + check_disk_space(url, path=f.parent) for i in range(retry + 1): try: if curl or i > 0: # curl download with retry, continue @@ -406,7 +411,7 @@ def attempt_download_asset(file, repo="ultralytics/assets", release="v8.1.0", ** file (str | Path): The filename or file path to be downloaded. repo (str, optional): The GitHub repository in the format 'owner/repo'. Defaults to 'ultralytics/assets'. release (str, optional): The specific release version to be downloaded. Defaults to 'v8.1.0'. - **kwargs (dict): Additional keyword arguments for the download process. + **kwargs (any): Additional keyword arguments for the download process. Returns: (str): The path to the downloaded file. diff --git a/ultralytics/utils/files.py b/ultralytics/utils/files.py index ae8e90c28c3..719cacaee1a 100644 --- a/ultralytics/utils/files.py +++ b/ultralytics/utils/files.py @@ -145,3 +145,44 @@ def get_latest_run(search_dir="."): """Return path to most recent 'last.pt' in /runs (i.e. to --resume from).""" last_list = glob.glob(f"{search_dir}/**/last*.pt", recursive=True) return max(last_list, key=os.path.getctime) if last_list else "" + + +def update_models(model_names=("yolov8n.pt",), source_dir=Path("."), update_names=False): + """ + Updates and re-saves specified YOLO models in an 'updated_models' subdirectory. + + Args: + model_names (tuple, optional): Model filenames to update, defaults to ("yolov8n.pt"). + source_dir (Path, optional): Directory containing models and target subdirectory, defaults to current directory. + update_names (bool, optional): Update model names from a data YAML. + + Example: + ```python + from ultralytics.utils.files import update_models + + model_names = (f"rtdetr-{size}.pt" for size in "lx") + update_models(model_names) + ``` + """ + from ultralytics import YOLO + from ultralytics.nn.autobackend import default_class_names + + target_dir = source_dir / "updated_models" + target_dir.mkdir(parents=True, exist_ok=True) # Ensure target directory exists + + for model_name in model_names: + model_path = source_dir / model_name + print(f"Loading model from {model_path}") + + # Load model + model = YOLO(model_path) + model.half() + if update_names: # update model names from a dataset YAML + model.model.names = default_class_names("coco8.yaml") + + # Define new save path + save_path = target_dir / model_name + + # Save model using model.save() + print(f"Re-saving {model_name} model to {save_path}") + model.save(save_path, use_dill=False) diff --git a/ultralytics/utils/loss.py b/ultralytics/utils/loss.py index af3d240f46f..360a292ab9d 100644 --- a/ultralytics/utils/loss.py +++ b/ultralytics/utils/loss.py @@ -87,8 +87,12 @@ def forward(self, pred_dist, pred_bboxes, anchor_points, target_bboxes, target_s @staticmethod def _df_loss(pred_dist, target): - """Return sum of left and right DFL losses.""" - # Distribution Focal Loss (DFL) proposed in Generalized Focal Loss https://ieeexplore.ieee.org/document/9792391 + """ + Return sum of left and right DFL losses. + + Distribution Focal Loss (DFL) proposed in Generalized Focal Loss + https://ieeexplore.ieee.org/document/9792391 + """ tl = target.long() # target left tr = tl + 1 # target right wl = tr - target # weight left @@ -133,10 +137,10 @@ def __init__(self, sigmas) -> None: def forward(self, pred_kpts, gt_kpts, kpt_mask, area): """Calculates keypoint loss factor and Euclidean distance loss for predicted and actual keypoints.""" - d = (pred_kpts[..., 0] - gt_kpts[..., 0]) ** 2 + (pred_kpts[..., 1] - gt_kpts[..., 1]) ** 2 + d = (pred_kpts[..., 0] - gt_kpts[..., 0]).pow(2) + (pred_kpts[..., 1] - gt_kpts[..., 1]).pow(2) kpt_loss_factor = kpt_mask.shape[1] / (torch.sum(kpt_mask != 0, dim=1) + 1e-9) # e = d / (2 * (area * self.sigmas) ** 2 + 1e-9) # from formula - e = d / (2 * self.sigmas) ** 2 / (area + 1e-9) / 2 # from cocoeval + e = d / ((2 * self.sigmas).pow(2) * (area + 1e-9) * 2) # from cocoeval return (kpt_loss_factor.view(-1, 1) * ((1 - torch.exp(-e)) * kpt_mask)).mean() @@ -593,7 +597,12 @@ def __call__(self, preds, batch): class v8OBBLoss(v8DetectionLoss): - def __init__(self, model): # model must be de-paralleled + def __init__(self, model): + """ + Initializes v8OBBLoss with model, assigner, and rotated bbox loss. + + Note model must be de-paralleled. + """ super().__init__(model) self.assigner = RotatedTaskAlignedAssigner(topk=10, num_classes=self.nc, alpha=0.5, beta=6.0) self.bbox_loss = RotatedBboxLoss(self.reg_max - 1, use_dfl=self.use_dfl).to(self.device) @@ -696,6 +705,7 @@ def bbox_decode(self, anchor_points, pred_dist, pred_angle): anchor_points (torch.Tensor): Anchor points, (h*w, 2). pred_dist (torch.Tensor): Predicted rotated distance, (bs, h*w, 4). pred_angle (torch.Tensor): Predicted angle, (bs, h*w, 1). + Returns: (torch.Tensor): Predicted rotated bounding boxes with angles, (bs, h*w, 5). """ diff --git a/ultralytics/utils/metrics.py b/ultralytics/utils/metrics.py index f10ae329f46..b49ee8b38a4 100644 --- a/ultralytics/utils/metrics.py +++ b/ultralytics/utils/metrics.py @@ -22,13 +22,13 @@ def bbox_ioa(box1, box2, iou=False, eps=1e-7): Calculate the intersection over box2 area given box1 and box2. Boxes are in x1y1x2y2 format. Args: - box1 (np.array): A numpy array of shape (n, 4) representing n bounding boxes. - box2 (np.array): A numpy array of shape (m, 4) representing m bounding boxes. - iou (bool): Calculate the standard iou if True else return inter_area/box2_area. + box1 (np.ndarray): A numpy array of shape (n, 4) representing n bounding boxes. + box2 (np.ndarray): A numpy array of shape (m, 4) representing m bounding boxes. + iou (bool): Calculate the standard IoU if True else return inter_area/box2_area. eps (float, optional): A small value to avoid division by zero. Defaults to 1e-7. Returns: - (np.array): A numpy array of shape (n, m) representing the intersection over box2 area. + (np.ndarray): A numpy array of shape (n, m) representing the intersection over box2 area. """ # Get the coordinates of bounding boxes @@ -116,10 +116,12 @@ def bbox_iou(box1, box2, xywh=True, GIoU=False, DIoU=False, CIoU=False, eps=1e-7 cw = b1_x2.maximum(b2_x2) - b1_x1.minimum(b2_x1) # convex (smallest enclosing box) width ch = b1_y2.maximum(b2_y2) - b1_y1.minimum(b2_y1) # convex height if CIoU or DIoU: # Distance or Complete IoU https://arxiv.org/abs/1911.08287v1 - c2 = cw**2 + ch**2 + eps # convex diagonal squared - rho2 = ((b2_x1 + b2_x2 - b1_x1 - b1_x2) ** 2 + (b2_y1 + b2_y2 - b1_y1 - b1_y2) ** 2) / 4 # center dist ** 2 + c2 = cw.pow(2) + ch.pow(2) + eps # convex diagonal squared + rho2 = ( + (b2_x1 + b2_x2 - b1_x1 - b1_x2).pow(2) + (b2_y1 + b2_y2 - b1_y1 - b1_y2).pow(2) + ) / 4 # center dist**2 if CIoU: # https://github.com/Zzh-tju/DIoU-SSD-pytorch/blob/master/utils/box/box_utils.py#L47 - v = (4 / math.pi**2) * (torch.atan(w2 / h2) - torch.atan(w1 / h1)).pow(2) + v = (4 / math.pi**2) * ((w2 / h2).atan() - (w1 / h1).atan()).pow(2) with torch.no_grad(): alpha = v / (v - iou + (1 + eps)) return iou - (rho2 / c2 + v * alpha) # CIoU @@ -162,12 +164,12 @@ def kpt_iou(kpt1, kpt2, area, sigma, eps=1e-7): Returns: (torch.Tensor): A tensor of shape (N, M) representing keypoint similarities. """ - d = (kpt1[:, None, :, 0] - kpt2[..., 0]) ** 2 + (kpt1[:, None, :, 1] - kpt2[..., 1]) ** 2 # (N, M, 17) + d = (kpt1[:, None, :, 0] - kpt2[..., 0]).pow(2) + (kpt1[:, None, :, 1] - kpt2[..., 1]).pow(2) # (N, M, 17) sigma = torch.tensor(sigma, device=kpt1.device, dtype=kpt1.dtype) # (17, ) kpt_mask = kpt1[..., 2] != 0 # (N, 17) - e = d / (2 * sigma) ** 2 / (area[:, None, None] + eps) / 2 # from cocoeval + e = d / ((2 * sigma).pow(2) * (area[:, None, None] + eps) * 2) # from cocoeval # e = d / ((area[None, :, None] + eps) * sigma) ** 2 / 2 # from formula - return (torch.exp(-e) * kpt_mask[:, None]).sum(-1) / (kpt_mask.sum(-1)[:, None] + eps) + return ((-e).exp() * kpt_mask[:, None]).sum(-1) / (kpt_mask.sum(-1)[:, None] + eps) def _get_covariance_matrix(boxes): @@ -180,19 +182,19 @@ def _get_covariance_matrix(boxes): Returns: (torch.Tensor): Covariance metrixs corresponding to original rotated bounding boxes. """ - # Gaussian bounding boxes, ignored the center points(the first two columns) cause it's not needed here. - gbbs = torch.cat((torch.pow(boxes[:, 2:4], 2) / 12, boxes[:, 4:]), dim=-1) + # Gaussian bounding boxes, ignore the center points (the first two columns) because they are not needed here. + gbbs = torch.cat((boxes[:, 2:4].pow(2) / 12, boxes[:, 4:]), dim=-1) a, b, c = gbbs.split(1, dim=-1) - return ( - a * torch.cos(c) ** 2 + b * torch.sin(c) ** 2, - a * torch.sin(c) ** 2 + b * torch.cos(c) ** 2, - a * torch.cos(c) * torch.sin(c) - b * torch.sin(c) * torch.cos(c), - ) + cos = c.cos() + sin = c.sin() + cos2 = cos.pow(2) + sin2 = sin.pow(2) + return a * cos2 + b * sin2, a * sin2 + b * cos2, (a - b) * cos * sin def probiou(obb1, obb2, CIoU=False, eps=1e-7): """ - Calculate the prob iou between oriented bounding boxes, https://arxiv.org/pdf/2106.06072v1.pdf. + Calculate the prob IoU between oriented bounding boxes, https://arxiv.org/pdf/2106.06072v1.pdf. Args: obb1 (torch.Tensor): A tensor of shape (N, 5) representing ground truth obbs, with xywhr format. @@ -208,26 +210,21 @@ def probiou(obb1, obb2, CIoU=False, eps=1e-7): a2, b2, c2 = _get_covariance_matrix(obb2) t1 = ( - ((a1 + a2) * (torch.pow(y1 - y2, 2)) + (b1 + b2) * (torch.pow(x1 - x2, 2))) - / ((a1 + a2) * (b1 + b2) - (torch.pow(c1 + c2, 2)) + eps) + ((a1 + a2) * (y1 - y2).pow(2) + (b1 + b2) * (x1 - x2).pow(2)) / ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2) + eps) ) * 0.25 - t2 = (((c1 + c2) * (x2 - x1) * (y1 - y2)) / ((a1 + a2) * (b1 + b2) - (torch.pow(c1 + c2, 2)) + eps)) * 0.5 + t2 = (((c1 + c2) * (x2 - x1) * (y1 - y2)) / ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2) + eps)) * 0.5 t3 = ( - torch.log( - ((a1 + a2) * (b1 + b2) - (torch.pow(c1 + c2, 2))) - / (4 * torch.sqrt((a1 * b1 - torch.pow(c1, 2)).clamp_(0) * (a2 * b2 - torch.pow(c2, 2)).clamp_(0)) + eps) - + eps - ) - * 0.5 - ) - bd = t1 + t2 + t3 - bd = torch.clamp(bd, eps, 100.0) - hd = torch.sqrt(1.0 - torch.exp(-bd) + eps) + ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2)) + / (4 * ((a1 * b1 - c1.pow(2)).clamp_(0) * (a2 * b2 - c2.pow(2)).clamp_(0)).sqrt() + eps) + + eps + ).log() * 0.5 + bd = (t1 + t2 + t3).clamp(eps, 100.0) + hd = (1.0 - (-bd).exp() + eps).sqrt() iou = 1 - hd if CIoU: # only include the wh aspect ratio part w1, h1 = obb1[..., 2:4].split(1, dim=-1) w2, h2 = obb2[..., 2:4].split(1, dim=-1) - v = (4 / math.pi**2) * (torch.atan(w2 / h2) - torch.atan(w1 / h1)).pow(2) + v = (4 / math.pi**2) * ((w2 / h2).atan() - (w1 / h1).atan()).pow(2) with torch.no_grad(): alpha = v / (v - iou + (1 + eps)) return iou - v * alpha # CIoU @@ -236,7 +233,7 @@ def probiou(obb1, obb2, CIoU=False, eps=1e-7): def batch_probiou(obb1, obb2, eps=1e-7): """ - Calculate the prob iou between oriented bounding boxes, https://arxiv.org/pdf/2106.06072v1.pdf. + Calculate the prob IoU between oriented bounding boxes, https://arxiv.org/pdf/2106.06072v1.pdf. Args: obb1 (torch.Tensor | np.ndarray): A tensor of shape (N, 5) representing ground truth obbs, with xywhr format. @@ -255,21 +252,16 @@ def batch_probiou(obb1, obb2, eps=1e-7): a2, b2, c2 = (x.squeeze(-1)[None] for x in _get_covariance_matrix(obb2)) t1 = ( - ((a1 + a2) * (torch.pow(y1 - y2, 2)) + (b1 + b2) * (torch.pow(x1 - x2, 2))) - / ((a1 + a2) * (b1 + b2) - (torch.pow(c1 + c2, 2)) + eps) + ((a1 + a2) * (y1 - y2).pow(2) + (b1 + b2) * (x1 - x2).pow(2)) / ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2) + eps) ) * 0.25 - t2 = (((c1 + c2) * (x2 - x1) * (y1 - y2)) / ((a1 + a2) * (b1 + b2) - (torch.pow(c1 + c2, 2)) + eps)) * 0.5 + t2 = (((c1 + c2) * (x2 - x1) * (y1 - y2)) / ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2) + eps)) * 0.5 t3 = ( - torch.log( - ((a1 + a2) * (b1 + b2) - (torch.pow(c1 + c2, 2))) - / (4 * torch.sqrt((a1 * b1 - torch.pow(c1, 2)).clamp_(0) * (a2 * b2 - torch.pow(c2, 2)).clamp_(0)) + eps) - + eps - ) - * 0.5 - ) - bd = t1 + t2 + t3 - bd = torch.clamp(bd, eps, 100.0) - hd = torch.sqrt(1.0 - torch.exp(-bd) + eps) + ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2)) + / (4 * ((a1 * b1 - c1.pow(2)).clamp_(0) * (a2 * b2 - c2.pow(2)).clamp_(0)).sqrt() + eps) + + eps + ).log() * 0.5 + bd = (t1 + t2 + t3).clamp(eps, 100.0) + hd = (1.0 - (-bd).exp() + eps).sqrt() return 1 - hd @@ -295,7 +287,7 @@ class ConfusionMatrix: Attributes: task (str): The type of task, either 'detect' or 'classify'. - matrix (np.array): The confusion matrix, with dimensions depending on the task. + matrix (np.ndarray): The confusion matrix, with dimensions depending on the task. nc (int): The number of classes. conf (float): The confidence threshold for detections. iou_thres (float): The Intersection over Union threshold. @@ -326,12 +318,13 @@ def process_batch(self, detections, gt_bboxes, gt_cls): Update confusion matrix for object detection task. Args: - detections (Array[N, 6]): Detected bounding boxes and their associated information. - Each row should contain (x1, y1, x2, y2, conf, class). - gt_bboxes (Array[M, 4]): Ground truth bounding boxes with xyxy format. + detections (Array[N, 6] | Array[N, 7]): Detected bounding boxes and their associated information. + Each row should contain (x1, y1, x2, y2, conf, class) + or with an additional element `angle` when it's obb. + gt_bboxes (Array[M, 4]| Array[N, 5]): Ground truth bounding boxes with xyxy/xyxyr format. gt_cls (Array[M]): The class labels. """ - if gt_cls.size(0) == 0: # Check if labels is empty + if gt_cls.shape[0] == 0: # Check if labels is empty if detections is not None: detections = detections[detections[:, 4] > self.conf] detection_classes = detections[:, 5].int() @@ -347,7 +340,12 @@ def process_batch(self, detections, gt_bboxes, gt_cls): detections = detections[detections[:, 4] > self.conf] gt_classes = gt_cls.int() detection_classes = detections[:, 5].int() - iou = box_iou(gt_bboxes, detections[:, :4]) + is_obb = detections.shape[1] == 7 and gt_bboxes.shape[1] == 5 # with additional `angle` dimension + iou = ( + batch_probiou(gt_bboxes, torch.cat([detections[:, :4], detections[:, -1:]], dim=-1)) + if is_obb + else box_iou(gt_bboxes, detections[:, :4]) + ) x = torch.where(iou > self.iou_thres) if x[0].shape[0]: @@ -404,7 +402,7 @@ def plot(self, normalize=True, save_dir="", names=(), on_plot=None): fig, ax = plt.subplots(1, 1, figsize=(12, 9), tight_layout=True) nc, nn = self.nc, len(names) # number of classes, names - sn.set(font_scale=1.0 if nc < 50 else 0.8) # for label size + sn.set_theme(font_scale=1.0 if nc < 50 else 0.8) # for label size labels = (0 < nn < 99) and (nn == nc) # apply names to ticklabels ticklabels = (list(names) + ["background"]) if labels else "auto" with warnings.catch_warnings(): @@ -701,7 +699,7 @@ def map50(self): Returns the mean Average Precision (mAP) at an IoU threshold of 0.5. Returns: - (float): The mAP50 at an IoU threshold of 0.5. + (float): The mAP at an IoU threshold of 0.5. """ return self.all_ap[:, 0].mean() if len(self.all_ap) else 0.0 @@ -711,7 +709,7 @@ def map75(self): Returns the mean Average Precision (mAP) at an IoU threshold of 0.75. Returns: - (float): The mAP50 at an IoU threshold of 0.75. + (float): The mAP at an IoU threshold of 0.75. """ return self.all_ap[:, 5].mean() if len(self.all_ap) else 0.0 diff --git a/ultralytics/utils/ops.py b/ultralytics/utils/ops.py index 5f02dabc9b6..439f94409eb 100644 --- a/ultralytics/utils/ops.py +++ b/ultralytics/utils/ops.py @@ -75,7 +75,6 @@ def segment2box(segment, width=640, height=640): Returns: (np.ndarray): the minimum and maximum x and y values of the segment. """ - # Convert 1 segment label to 1 box label, applying inside-image constraint, i.e. (xy1, xy2, ...) to (xyxy) x, y = segment.T # segment xy inside = (x >= 0) & (y >= 0) & (x <= width) & (y <= height) x = x[inside] @@ -148,7 +147,7 @@ def nms_rotated(boxes, scores, threshold=0.45): Args: boxes (torch.Tensor): (N, 5), xywhr. scores (torch.Tensor): (N, ). - threshold (float): Iou threshold. + threshold (float): IoU threshold. Returns: """ @@ -174,6 +173,7 @@ def non_max_suppression( max_time_img=0.05, max_nms=30000, max_wh=7680, + in_place=True, rotated=False, ): """ @@ -198,7 +198,8 @@ def non_max_suppression( nc (int, optional): The number of classes output by the model. Any indices after this will be considered masks. max_time_img (float): The maximum time (seconds) for processing one image. max_nms (int): The maximum number of boxes into torchvision.ops.nms(). - max_wh (int): The maximum box width and height in pixels + max_wh (int): The maximum box width and height in pixels. + in_place (bool): If True, the input prediction tensor will be modified in place. Returns: (List[torch.Tensor]): A list of length batch_size, where each element is a tensor of @@ -225,7 +226,10 @@ def non_max_suppression( prediction = prediction.transpose(-1, -2) # shape(1,84,6300) to shape(1,6300,84) if not rotated: - prediction[..., :4] = xywh2xyxy(prediction[..., :4]) # xywh to xyxy + if in_place: + prediction[..., :4] = xywh2xyxy(prediction[..., :4]) # xywh to xyxy + else: + prediction = torch.cat((xywh2xyxy(prediction[..., :4]), prediction[..., 4:]), dim=-1) # xywh to xyxy t = time.time() output = [torch.zeros((0, 6 + nm), device=prediction.device)] * bs @@ -283,7 +287,7 @@ def non_max_suppression( # if merge and (1 < n < 3E3): # Merge NMS (boxes merged using weighted mean) # # Update boxes as boxes(i,4) = weights(i,n) * boxes(n,4) # from .metrics import box_iou - # iou = box_iou(boxes[i], boxes) > iou_thres # iou matrix + # iou = box_iou(boxes[i], boxes) > iou_thres # IoU matrix # weights = iou * scores[None] # box weights # x[i, :4] = torch.mm(weights, x[:, :4]).float() / weights.sum(1, keepdim=True) # merged boxes # redundant = True # require redundant detections @@ -547,7 +551,7 @@ def xywhr2xyxyxyxy(rboxes): be in degrees from 0 to 90. Args: - rboxes (numpy.ndarray | torch.Tensor): Input data in [cx, cy, w, h, rotation] format of shape (n, 5) or (b, n, 5). + rboxes (numpy.ndarray | torch.Tensor): Boxes in [cx, cy, w, h, rotation] format of shape (n, 5) or (b, n, 5). Returns: (numpy.ndarray | torch.Tensor): Converted corner points of shape (n, 4, 2) or (b, n, 4, 2). @@ -634,7 +638,7 @@ def crop_mask(masks, boxes): Returns: (torch.Tensor): The masks are being cropped to the bounding box. """ - n, h, w = masks.shape + _, h, w = masks.shape x1, y1, x2, y2 = torch.chunk(boxes[:, :, None], 4, 1) # x1 shape(n,1,1) r = torch.arange(w, device=masks.device, dtype=x1.dtype)[None, None, :] # rows shape(1,1,w) c = torch.arange(h, device=masks.device, dtype=x1.dtype)[None, :, None] # cols shape(1,h,1) @@ -682,12 +686,14 @@ def process_mask(protos, masks_in, bboxes, shape, upsample=False): c, mh, mw = protos.shape # CHW ih, iw = shape masks = (masks_in @ protos.float().view(c, -1)).sigmoid().view(-1, mh, mw) # CHW + width_ratio = mw / iw + height_ratio = mh / ih downsampled_bboxes = bboxes.clone() - downsampled_bboxes[:, 0] *= mw / iw - downsampled_bboxes[:, 2] *= mw / iw - downsampled_bboxes[:, 3] *= mh / ih - downsampled_bboxes[:, 1] *= mh / ih + downsampled_bboxes[:, 0] *= width_ratio + downsampled_bboxes[:, 2] *= width_ratio + downsampled_bboxes[:, 3] *= height_ratio + downsampled_bboxes[:, 1] *= height_ratio masks = crop_mask(masks, downsampled_bboxes) # CHW if upsample: diff --git a/ultralytics/utils/patches.py b/ultralytics/utils/patches.py index 703ec19d722..d438407114e 100644 --- a/ultralytics/utils/patches.py +++ b/ultralytics/utils/patches.py @@ -60,27 +60,29 @@ def imshow(winname: str, mat: np.ndarray): _torch_save = torch.save # copy to avoid recursion errors -def torch_save(*args, **kwargs): +def torch_save(*args, use_dill=True, **kwargs): """ - Use dill (if exists) to serialize the lambda functions where pickle does not do this. Also adds 3 retries with - exponential standoff in case of save failure to improve robustness to transient issues. + Optionally use dill to serialize lambda functions where pickle does not, adding robustness with 3 retries and + exponential standoff in case of save failure. Args: *args (tuple): Positional arguments to pass to torch.save. - **kwargs (dict): Keyword arguments to pass to torch.save. + use_dill (bool): Whether to try using dill for serialization if available. Defaults to True. + **kwargs (any): Keyword arguments to pass to torch.save. """ try: - import dill as pickle # noqa - except ImportError: + assert use_dill + import dill as pickle + except (AssertionError, ImportError): import pickle if "pickle_module" not in kwargs: - kwargs["pickle_module"] = pickle # noqa + kwargs["pickle_module"] = pickle for i in range(4): # 3 retries try: return _torch_save(*args, **kwargs) - except RuntimeError: # unable to save, possibly waiting for device to flush or anti-virus to finish scanning + except RuntimeError as e: # unable to save, possibly waiting for device to flush or antivirus scan if i == 3: - raise - time.sleep((2**i) / 2) # exponential standoff 0.5s, 1.0s, 2.0s + raise e + time.sleep((2**i) / 2) # exponential standoff: 0.5s, 1.0s, 2.0s diff --git a/ultralytics/utils/plotting.py b/ultralytics/utils/plotting.py index 3028ed144c0..d0215ba5e3e 100644 --- a/ultralytics/utils/plotting.py +++ b/ultralytics/utils/plotting.py @@ -27,7 +27,7 @@ class Colors: Attributes: palette (list of tuple): List of RGB color values. n (int): The number of colors in the palette. - pose_palette (np.array): A specific color palette array with dtype np.uint8. + pose_palette (np.ndarray): A specific color palette array with dtype np.uint8. """ def __init__(self): @@ -112,12 +112,12 @@ class Annotator: def __init__(self, im, line_width=None, font_size=None, font="Arial.ttf", pil=False, example="abc"): """Initialize the Annotator class with image and line width along with color palette for keypoints and limbs.""" - assert im.data.contiguous, "Image not contiguous. Apply np.ascontiguousarray(im) to Annotator() input images." non_ascii = not is_ascii(example) # non-latin labels, i.e. asian, arabic, cyrillic - self.pil = pil or non_ascii - self.lw = line_width or max(round(sum(im.shape) / 2 * 0.003), 2) # line width + input_is_pil = isinstance(im, Image.Image) + self.pil = pil or non_ascii or input_is_pil + self.lw = line_width or max(round(sum(im.size if input_is_pil else im.shape) / 2 * 0.003), 2) if self.pil: # use PIL - self.im = im if isinstance(im, Image.Image) else Image.fromarray(im) + self.im = im if input_is_pil else Image.fromarray(im) self.draw = ImageDraw.Draw(self.im) try: font = check_font("Arial.Unicode.ttf" if non_ascii else font) @@ -129,6 +129,7 @@ def __init__(self, im, line_width=None, font_size=None, font="Arial.ttf", pil=Fa if check_version(pil_version, "9.2.0"): self.font.getsize = lambda x: self.font.getbbox(x)[2:4] # text width, height else: # use cv2 + assert im.data.contiguous, "Image not contiguous. Apply np.ascontiguousarray(im) to Annotator input images." self.im = im if im.flags.writeable else im.copy() self.tf = max(self.lw - 1, 1) # font thickness self.sf = self.lw / 3 # font scale @@ -250,7 +251,8 @@ def kpts(self, kpts, shape=(640, 640), radius=5, kpt_line=True): kpt_line (bool, optional): If True, the function will draw lines connecting keypoints for human pose. Default is True. - Note: `kpt_line=True` currently only supports human pose plotting. + Note: + `kpt_line=True` currently only supports human pose plotting. """ if self.pil: # Convert to numpy first @@ -329,10 +331,18 @@ def result(self): """Return annotated image as array.""" return np.asarray(self.im) - # Object Counting Annotator + def show(self, title=None): + """Show the annotated image.""" + Image.fromarray(np.asarray(self.im)[..., ::-1]).show(title) + + def save(self, filename="image.jpg"): + """Save the annotated image to 'filename'.""" + cv2.imwrite(filename, np.asarray(self.im)) + def draw_region(self, reg_pts=None, color=(0, 255, 0), thickness=5): """ - Draw region line + Draw region line. + Args: reg_pts (list): Region Points (for line 2 points, for region 4 points) color (tuple): Region Color value @@ -342,7 +352,8 @@ def draw_region(self, reg_pts=None, color=(0, 255, 0), thickness=5): def draw_centroid_and_tracks(self, track, color=(255, 0, 255), track_thickness=2): """ - Draw centroid point and track trails + Draw centroid point and track trails. + Args: track (list): object tracking points for trails display color (tuple): tracks line color @@ -354,7 +365,8 @@ def draw_centroid_and_tracks(self, track, color=(255, 0, 255), track_thickness=2 def count_labels(self, counts=0, count_txt_size=2, color=(255, 255, 255), txt_color=(0, 0, 0)): """ - Plot counts for object counter + Plot counts for object counter. + Args: counts (int): objects counts value count_txt_size (int): text size for counts display @@ -383,11 +395,14 @@ def count_labels(self, counts=0, count_txt_size=2, color=(255, 255, 255), txt_co @staticmethod def estimate_pose_angle(a, b, c): - """Calculate the pose angle for object + """ + Calculate the pose angle for object. + Args: a (float) : The value of pose point a b (float): The value of pose point b c (float): The value o pose point c + Returns: angle (degree): Degree value of angle between three points """ @@ -408,8 +423,6 @@ def draw_specific_points(self, keypoints, indices=[2, 5, 7], shape=(640, 640), r shape (tuple): imgsz for model inference radius (int): Keypoint radius value """ - nkpts, ndim = keypoints.shape - nkpts == 17 and ndim == 3 for i, k in enumerate(keypoints): if i in indices: x_coord, y_coord = k[0], k[1] @@ -518,6 +531,51 @@ def seg_bbox(self, mask, mask_color=(255, 0, 255), det_label=None, track_label=N self.im, label, (int(mask[0][0]) - text_size[0] // 2, int(mask[0][1]) - 5), 0, 0.7, (255, 255, 255), 2 ) + def plot_distance_and_line(self, distance_m, distance_mm, centroids, line_color, centroid_color): + """ + Plot the distance and line on frame. + + Args: + distance_m (float): Distance between two bbox centroids in meters. + distance_mm (float): Distance between two bbox centroids in millimeters. + centroids (list): Bounding box centroids data. + line_color (RGB): Distance line color. + centroid_color (RGB): Bounding box centroid color. + """ + (text_width_m, text_height_m), _ = cv2.getTextSize( + f"Distance M: {distance_m:.2f}m", cv2.FONT_HERSHEY_SIMPLEX, 0.8, 2 + ) + cv2.rectangle(self.im, (15, 25), (15 + text_width_m + 10, 25 + text_height_m + 20), (255, 255, 255), -1) + cv2.putText( + self.im, + f"Distance M: {distance_m:.2f}m", + (20, 50), + cv2.FONT_HERSHEY_SIMPLEX, + 0.8, + (0, 0, 0), + 2, + cv2.LINE_AA, + ) + + (text_width_mm, text_height_mm), _ = cv2.getTextSize( + f"Distance MM: {distance_mm:.2f}mm", cv2.FONT_HERSHEY_SIMPLEX, 0.8, 2 + ) + cv2.rectangle(self.im, (15, 75), (15 + text_width_mm + 10, 75 + text_height_mm + 20), (255, 255, 255), -1) + cv2.putText( + self.im, + f"Distance MM: {distance_mm:.2f}mm", + (20, 100), + cv2.FONT_HERSHEY_SIMPLEX, + 0.8, + (0, 0, 0), + 2, + cv2.LINE_AA, + ) + + cv2.line(self.im, centroids[0], centroids[1], line_color, 3) + cv2.circle(self.im, centroids[0], 6, centroid_color, -1) + cv2.circle(self.im, centroids[1], 6, centroid_color, -1) + def visioneye(self, box, center_point, color=(235, 219, 11), pin_color=(255, 0, 255), thickness=2, pins_radius=10): """ Function for pinpoint human-vision eye mapping and plotting. @@ -655,6 +713,7 @@ def plot_images( on_plot=None, max_subplots=16, save=True, + conf_thres=0.25, ): """Plot image grid with labels.""" if isinstance(images, torch.Tensor): @@ -720,7 +779,7 @@ def plot_images( c = classes[j] color = colors(c) c = names.get(c, c) if names else c - if labels or conf[j] > 0.25: # 0.25 conf thresh + if labels or conf[j] > conf_thres: label = f"{c}" if labels else f"{c} {conf[j]:.1f}" annotator.box_label(box, label, color=color, rotated=is_obb) @@ -742,7 +801,7 @@ def plot_images( kpts_[..., 0] += x kpts_[..., 1] += y for j in range(len(kpts_)): - if labels or conf[j] > 0.25: # 0.25 conf thresh + if labels or conf[j] > conf_thres: annotator.kpts(kpts_[j]) # Plot masks @@ -758,7 +817,7 @@ def plot_images( im = np.asarray(annotator.im).copy() for j in range(len(image_masks)): - if labels or conf[j] > 0.25: # 0.25 conf thresh + if labels or conf[j] > conf_thres: color = colors(classes[j]) mh, mw = image_masks[j].shape if mh != h or mw != w: @@ -969,13 +1028,13 @@ def feature_visualization(x, module_type, stage, n=32, save_dir=Path("runs/detec for m in ["Detect", "Pose", "Segment"]: if m in module_type: return - batch, channels, height, width = x.shape # batch, channels, height, width + _, channels, height, width = x.shape # batch, channels, height, width if height > 1 and width > 1: f = save_dir / f"stage{stage}_{module_type.split('.')[-1]}_features.png" # filename blocks = torch.chunk(x[0].cpu(), channels, dim=0) # select batch index 0, block by channels n = min(n, channels) # number of plots - fig, ax = plt.subplots(math.ceil(n / 8), 8, tight_layout=True) # 8 rows x n/8 cols + _, ax = plt.subplots(math.ceil(n / 8), 8, tight_layout=True) # 8 rows x n/8 cols ax = ax.ravel() plt.subplots_adjust(wspace=0.05, hspace=0.05) for i in range(n): diff --git a/ultralytics/utils/tal.py b/ultralytics/utils/tal.py index 42bcf72da4e..9cee05008f0 100644 --- a/ultralytics/utils/tal.py +++ b/ultralytics/utils/tal.py @@ -56,8 +56,8 @@ def forward(self, pd_scores, pd_bboxes, anc_points, gt_labels, gt_bboxes, mask_g fg_mask (Tensor): shape(bs, num_total_anchors) target_gt_idx (Tensor): shape(bs, num_total_anchors) """ - self.bs = pd_scores.size(0) - self.n_max_boxes = gt_bboxes.size(1) + self.bs = pd_scores.shape[0] + self.n_max_boxes = gt_bboxes.shape[1] if self.n_max_boxes == 0: device = gt_bboxes.device @@ -121,7 +121,7 @@ def get_box_metrics(self, pd_scores, pd_bboxes, gt_labels, gt_bboxes, mask_gt): return align_metric, overlaps def iou_calculation(self, gt_bboxes, pd_bboxes): - """Iou calculation for horizontal bounding boxes.""" + """IoU calculation for horizontal bounding boxes.""" return bbox_iou(gt_bboxes, pd_bboxes, xywh=False, CIoU=True).squeeze(-1).clamp_(0) def select_topk_candidates(self, metrics, largest=True, topk_mask=None): @@ -231,7 +231,7 @@ def select_candidates_in_gts(xy_centers, gt_bboxes, eps=1e-9): @staticmethod def select_highest_overlaps(mask_pos, overlaps, n_max_boxes): """ - If an anchor box is assigned to multiple gts, the one with the highest IoI will be selected. + If an anchor box is assigned to multiple gts, the one with the highest IoU will be selected. Args: mask_pos (Tensor): shape(b, n_max_boxes, h*w) @@ -260,7 +260,7 @@ def select_highest_overlaps(mask_pos, overlaps, n_max_boxes): class RotatedTaskAlignedAssigner(TaskAlignedAssigner): def iou_calculation(self, gt_bboxes, pd_bboxes): - """Iou calculation for rotated bounding boxes.""" + """IoU calculation for rotated bounding boxes.""" return probiou(gt_bboxes, pd_bboxes).squeeze(-1).clamp_(0) @staticmethod diff --git a/ultralytics/utils/torch_utils.py b/ultralytics/utils/torch_utils.py index bdd7e335553..77d8cc8cc46 100644 --- a/ultralytics/utils/torch_utils.py +++ b/ultralytics/utils/torch_utils.py @@ -2,7 +2,6 @@ import math import os -import platform import random import time from contextlib import contextmanager @@ -18,14 +17,16 @@ import torchvision from ultralytics.utils import DEFAULT_CFG_DICT, DEFAULT_CFG_KEYS, LOGGER, __version__ -from ultralytics.utils.checks import check_version +from ultralytics.utils.checks import PYTHON_VERSION, check_version try: import thop except ImportError: thop = None +# Version checks (all default to version>=min_version) TORCH_1_9 = check_version(torch.__version__, "1.9.0") +TORCH_1_13 = check_version(torch.__version__, "1.13.0") TORCH_2_0 = check_version(torch.__version__, "2.0.0") TORCHVISION_0_10 = check_version(torchvision.__version__, "0.10.0") TORCHVISION_0_11 = check_version(torchvision.__version__, "0.11.0") @@ -103,7 +104,7 @@ def select_device(device="", batch=0, newline=False, verbose=True): if isinstance(device, torch.device): return device - s = f"Ultralytics YOLOv{__version__} 🚀 Python-{platform.python_version()} torch-{torch.__version__} " + s = f"Ultralytics YOLOv{__version__} 🚀 Python-{PYTHON_VERSION} torch-{torch.__version__} " device = str(device).lower() for remove in "cuda:", "none", "(", ")", "[", "]", "'", " ": device = device.replace(remove, "") # to string, 'cuda:0' -> '0' and '(0, 1)' -> '0,1' @@ -116,7 +117,7 @@ def select_device(device="", batch=0, newline=False, verbose=True): device = "0" visible = os.environ.get("CUDA_VISIBLE_DEVICES", None) os.environ["CUDA_VISIBLE_DEVICES"] = device # set environment variable - must be before assert is_available() - if not (torch.cuda.is_available() and torch.cuda.device_count() >= len(device.replace(",", ""))): + if not (torch.cuda.is_available() and torch.cuda.device_count() >= len(device.split(","))): LOGGER.info(s) install = ( "See https://pytorch.org/get-started/locally/ for up-to-date torch install instructions if no " @@ -190,7 +191,7 @@ def fuse_conv_and_bn(conv, bn): fusedconv.weight.copy_(torch.mm(w_bn, w_conv).view(fusedconv.weight.shape)) # Prepare spatial bias - b_conv = torch.zeros(conv.weight.size(0), device=conv.weight.device) if conv.bias is None else conv.bias + b_conv = torch.zeros(conv.weight.shape[0], device=conv.weight.device) if conv.bias is None else conv.bias b_bn = bn.bias - bn.weight.mul(bn.running_mean).div(torch.sqrt(bn.running_var + bn.eps)) fusedconv.bias.copy_(torch.mm(w_bn, b_conv.reshape(-1, 1)).reshape(-1) + b_bn) @@ -221,7 +222,7 @@ def fuse_deconv_and_bn(deconv, bn): fuseddconv.weight.copy_(torch.mm(w_bn, w_deconv).view(fuseddconv.weight.shape)) # Prepare spatial bias - b_conv = torch.zeros(deconv.weight.size(1), device=deconv.weight.device) if deconv.bias is None else deconv.bias + b_conv = torch.zeros(deconv.weight.shape[1], device=deconv.weight.device) if deconv.bias is None else deconv.bias b_bn = bn.bias - bn.weight.mul(bn.running_mean).div(torch.sqrt(bn.running_var + bn.eps)) fuseddconv.bias.copy_(torch.mm(w_bn, b_conv.reshape(-1, 1)).reshape(-1) + b_bn) diff --git a/ultralytics/utils/triton.py b/ultralytics/utils/triton.py index 98c4be207c6..3f873a6fafc 100644 --- a/ultralytics/utils/triton.py +++ b/ultralytics/utils/triton.py @@ -75,7 +75,7 @@ def __call__(self, *inputs: np.ndarray) -> List[np.ndarray]: *inputs (List[np.ndarray]): Input data to the model. Returns: - List[np.ndarray]: Model outputs. + (List[np.ndarray]): Model outputs. """ infer_inputs = [] input_format = inputs[0].dtype diff --git a/ultralytics/utils/tuner.py b/ultralytics/utils/tuner.py index db7d4907944..305c60a429b 100644 --- a/ultralytics/utils/tuner.py +++ b/ultralytics/utils/tuner.py @@ -3,7 +3,7 @@ import subprocess from ultralytics.cfg import TASK2DATA, TASK2METRIC, get_save_dir -from ultralytics.utils import DEFAULT_CFG, DEFAULT_CFG_DICT, LOGGER, NUM_THREADS +from ultralytics.utils import DEFAULT_CFG, DEFAULT_CFG_DICT, LOGGER, NUM_THREADS, checks def run_ray_tune( @@ -40,7 +40,7 @@ def run_ray_tune( train_args = {} try: - subprocess.run("pip install ray[tune]".split(), check=True) + subprocess.run("pip install ray[tune]<=2.9.3".split(), check=True) # do not add single quotes here import ray from ray import tune @@ -48,7 +48,7 @@ def run_ray_tune( from ray.air.integrations.wandb import WandbLoggerCallback from ray.tune.schedulers import ASHAScheduler except ImportError: - raise ModuleNotFoundError('Tuning hyperparameters requires Ray Tune. Install with: pip install "ray[tune]"') + raise ModuleNotFoundError('Ray Tune required but not found. To install run: pip install "ray[tune]<=2.9.3"') try: import wandb @@ -57,6 +57,7 @@ def run_ray_tune( except (ImportError, AssertionError): wandb = False + checks.check_version(ray.__version__, "<=2.9.3", "ray") default_space = { # 'optimizer': tune.choice(['SGD', 'Adam', 'AdamW', 'NAdam', 'RAdam', 'RMSProp']), "lr0": tune.uniform(1e-5, 1e-1), @@ -77,6 +78,7 @@ def run_ray_tune( "perspective": tune.uniform(0.0, 0.001), # image perspective (+/- fraction), range 0-0.001 "flipud": tune.uniform(0.0, 1.0), # image flip up-down (probability) "fliplr": tune.uniform(0.0, 1.0), # image flip left-right (probability) + "bgr": tune.uniform(0.0, 1.0), # image channel BGR (probability) "mosaic": tune.uniform(0.0, 1.0), # image mixup (probability) "mixup": tune.uniform(0.0, 1.0), # image mixup (probability) "copy_paste": tune.uniform(0.0, 1.0), # segment copy-paste (probability) @@ -94,7 +96,7 @@ def _tune(config): config (dict): A dictionary of hyperparameters to use for training. Returns: - None. + None """ model_to_train = ray.get(model_in_store) # get the model from ray store for tuning model_to_train.reset_callbacks()