Erkennung und Identifizierung von Teeblattkrankheiten basierend auf YOLOv7 (YOLO

Nachricht

HeimHeim / Nachricht / Erkennung und Identifizierung von Teeblattkrankheiten basierend auf YOLOv7 (YOLO

Jun 06, 2023

Erkennung und Identifizierung von Teeblattkrankheiten basierend auf YOLOv7 (YOLO

Wissenschaftliche Berichte Band 13,

Scientific Reports Band 13, Artikelnummer: 6078 (2023) Diesen Artikel zitieren

3425 Zugriffe

1 Altmetrisch

Details zu den Metriken

Zur Vorbeugung und Behandlung von Teeblattkrankheiten ist ein zuverlässiges und genaues Diagnose- und Identifizierungssystem erforderlich. Teeblattkrankheiten werden manuell erkannt, was den Zeitaufwand erhöht und die Ertragsqualität und Produktivität beeinträchtigt. Ziel dieser Studie ist es, eine auf künstlicher Intelligenz basierende Lösung für das Problem der Erkennung von Teeblattkrankheiten vorzustellen, indem das schnellste einstufige Objekterkennungsmodell, YOLOv7, auf dem Datensatz erkrankter Teeblätter trainiert wird, der aus vier bekannten Teegärten in Bangladesch gesammelt wurde. In diesen Teegärten werden 4000 digitale Bilder von fünf Arten von Blattkrankheiten gesammelt, wodurch ein manuell kommentierter, datenerweiterter Bilddatensatz zu Blattkrankheiten entsteht. Diese Studie umfasst Ansätze zur Datenerweiterung, um das Problem unzureichender Stichprobengrößen zu lösen. Die Erkennungs- und Identifizierungsergebnisse für den YOLOv7-Ansatz werden durch wichtige statistische Metriken wie Erkennungsgenauigkeit, Präzision, Rückruf, mAP-Wert und F1-Score validiert, was zu 97,3 %, 96,7 %, 96,4 %, 98,2 % bzw. 0,965 führte . Experimentelle Ergebnisse zeigen, dass YOLOv7 für Teeblattkrankheiten in natürlichen Szenenbildern bestehenden Zielerkennungs- und -identifizierungsnetzwerken, einschließlich CNN, Deep CNN, DNN, AX-Retina Net, verbessertem DCNN, YOLOv5 und Multiobjektiv-Bildsegmentierung, überlegen ist. Daher wird erwartet, dass diese Studie die Arbeitsbelastung der Entomologen minimiert und zur schnellen Identifizierung und Erkennung von Teeblattkrankheiten beiträgt, wodurch wirtschaftliche Verluste minimiert werden.

Tee ist aufgrund seines angenehmen Aromas, seines exquisiten Geschmacks und seiner biologischen Vorteile eines der beliebtesten Funktionsgetränke der Welt. Es enthält mehrere aktive Phytobestandteile, die erhebliche Vorteile für die menschliche Gesundheit haben. Die faszinierendste Tatsache ist, dass es zum am häufigsten konsumierten Getränk geworden ist (neben Wasser)1. Tee spielt eine wichtige Rolle dabei, Familien und Freunde auf der ganzen Welt näher zusammenzubringen2. Bis 2025 wird der weltweite Teekonsum voraussichtlich 7,4 Mio. Tonnen erreichen, gegenüber etwa 7,3 Mio. Tonnen im Jahr 20203.

Die Nachfrage nach Teeproduktion wird in den kommenden Tagen steigen. Im Gegensatz dazu ist die Produktion von Tee aufgrund der Wetterbedingungen und des Klimawandels rückläufig. Neben diesen globalen Phänomenen beeinträchtigen verschiedene Krankheiten und Schädlinge die Teeproduktion und -qualität stark. Teepflanzen werden während ihrer Entwicklung und ihres Wachstums häufig von Krankheiten befallen. Weltweit sind über einhundert weitverbreitete Krankheiten bekannt, die die Teeblätter schädigen4. Tee gehört zu den überlegenen agroindustriellen und exportorientierten Nutzpflanzen Bangladeschs. Es wird von den meisten Menschen des Landes regelmäßig konsumiert und sein Geschmack ist innerhalb und außerhalb seines Herkunftslandes sehr beliebt5. Bangladesch verfügt über 162 Teegärten, die in zwei Hauptanbaugebiete unterteilt sind: Sylhet im Nordosten und Chittagong im Süden5. Bangladeschs enorme Teeproduktion hat zweifellos zu seinem BIP beigetragen und es gleichzeitig zum weltweit führenden Teeexporteur gemacht.

Durch die frühzeitige und genaue Diagnose von Pflanzenkrankheiten und Schädlingen werden landwirtschaftliche Produktionsausfälle deutlich verhindert. Wenn Teeblattkrankheiten genau und schnell erkannt werden, können sie verhindert und effizienter behandelt werden6. In jüngster Zeit wird die Diagnose von Teeblattkrankheiten manuell durchgeführt. Da der Großteil der Teepflanzen in schwierigem hügeligem Gelände wächst, ist es für Fachleute zeitaufwändig und teuer, Teegärten zur Diagnose aufzusuchen. Wenn sich Landwirte auf ihre persönlichen Erfahrungen verlassen, um zwischen verschiedenen Formen von Teekrankheiten zu unterscheiden, sind die Ergebnisse höchst subjektiv7. Die Genauigkeit solcher Prognosen ist gering und die Identifizierung kranker Blätter erfordert erhebliche Arbeit. Daher sollte ein Rahmen eine präzisere und zuverlässigere Krankheitsdiagnose ermöglichen6.

Mit der Weiterentwicklung der Computertechnologie können maschinelles Lernen und Bildverarbeitung Pflanzenkrankheiten automatisch erkennen und identifizieren, was eine wichtige Rolle bei der automatischen Diagnose von Pflanzenkrankheiten spielt8,9. Forscher haben Bildverarbeitung und maschinelles Lernen eingesetzt, um Pflanzenkrankheiten zu identifizieren und zu kategorisieren. Castelao Tetila et al. wandte sechs traditionelle maschinelle Lernansätze an, um infizierte Sojabohnenblätter zu erkennen, die von einem unbemannten Luftfahrzeug (UAV) aus verschiedenen Höhen eingefangen wurden. Der Einfluss von Farb- und Texturmerkmalen wurde anhand der Erkennungsrate validiert10. Maniyath et al.11 schlugen eine auf maschinellem Lernen basierende Klassifizierungsarchitektur zur Erkennung von Pflanzenkrankheiten vor. In einer anderen aktuellen Studie verwendete Ferentinos12 einfache Blattbilder von gesunden und infizierten Pflanzen und konstruierte Faltungs-Neuronale-Netzwerk-Modelle zur Identifizierung und Diagnose von Pflanzenkrankheiten mithilfe von Deep Learning. Fuentes et al.13 verwendeten „Deep-Learning-Metaarchitekturen“, um Krankheiten und Schädlinge an Tomatenpflanzen zu identifizieren, indem sie eine Kamera zur Aufnahme von Bildern mit unterschiedlichen Auflösungen verwendeten. Als Ergebnis erfolgreicher Untersuchungen konnten mit den Ansätzen weiterhin neun verschiedene Arten von Tomatenpflanzenkrankheiten und -schädlingen erkannt werden. Tiwari et al.14 führten eine Strategie eines dichten Faltungs-Neuronalen Netzwerks zur Erkennung und Klassifizierung von Pflanzenkrankheiten anhand von Blattbildern ein, die mit unterschiedlichen Auflösungen aufgenommen wurden. Dieses tiefe neuronale Netzwerk befasste sich unter komplizierten Umständen mit vielen klassenübergreifenden und klasseninternen Varianzen in Bildern. In mehreren weiteren Studien wurden Deep-Learning- und Bildverarbeitungstechniken eingesetzt, um Teeblattkrankheiten zu identifizieren. Hossain et al.15 entdeckten eine Bildverarbeitungsmethode, mit der 11 Merkmale von Teeblattkrankheiten analysiert werden können, und nutzten einen Support-Vector-Machine-Klassifizierer, um die beiden häufigsten Teeblattkrankheiten, nämlich die Braunfäule und die Algenblattkrankheit, zu identifizieren und zu klassifizieren. Sun et al.16 verbesserten die Extraktion von Ausprägungskarten für Teeblattkrankheiten aus komplizierten Umgebungen durch die Kombination von einfachen linearen iterativen Clustern (SLIC) und Support-Vektor-Maschinen (SVM). Hu et al.17 entwickelten ein Modell zur Analyse des Schweregrads der Teeblattfäule in natürlichen Szenenfotos. Der anfängliche Krankheitsschwereindex (IDS) wurde durch Segmentierung der Krankheitsfleckorte aus Bildern von Teeblattfäuleblättern mithilfe des SVM-Klassifikators berechnet. Darüber hinaus haben verschiedene Forscher bemerkenswerte Architekturen wie AlexNet18, VGGNet19, GoogLeNet20, InceptionV321, ResNet22 ​​und DenseNet23 zur Identifizierung von Pflanzenkrankheiten verwendet.

Während sich die oben genannten Techniken bei der Behandlung von Pflanzen- oder Pflanzenkrankheiten als wirksam erwiesen haben, beschränken sie sich auf die Diagnose oder Klassifizierung von Bildern von Pflanzenkrankheiten. Wie bereits erwähnt, sind tiefe neuronale Netze bei der Erkennung und Erkennung von Teeblattkrankheiten in Bildern natürlicher Szenen unwirksam. Dies liegt daran, dass natürliche Szenenbilder von Teeblättern komplexe Hintergründe, dichte Blätter und großflächige Veränderungen enthalten. Einstufige Algorithmen schnitten im Vergleich zu den anderen Deep-Learning-Modellen gut ab24. In jüngster Zeit wurden auf Deep Learning basierende Bilderkennungsnetzwerke in zweistufige und einstufige Netzwerke unterteilt24. Die erste ist die Algorithmenfamilie R–CNN (Region-Based Convolutional Neural Network), die auf regionale Vorschläge ausgerichtet ist und repräsentative Netzwerke wie R–CNN, Fast R–CNN, Faster R–CNN, Mask R–CNN umfasst. usw. Eine weitere Kategorie sind einstufige Algorithmen und ihre repräsentativen Netzwerke, wie zum Beispiel die YOLO-Serie (man schaut nur einmal hin)25.

YOLO ist ein Objekterkennungsalgorithmus, der in der Computer Vision an Popularität gewonnen hat. YOLO ist ein Echtzeit-Objekterkennungsalgorithmus, der ein Bild in einem einzigen Vorwärtsdurchlauf durch ein neuronales Netzwerk verarbeitet. Im Gegensatz zu herkömmlichen Objekterkennungsalgorithmen, die mehrere Verarbeitungsstufen umfassen, führt YOLO die Objekterkennung und Bounding-Box-Regression in einem einzigen Schritt durch24. Dadurch ist es schnell und effizient und kann bis zu 60 Bilder pro Sekunde verarbeiten. YOLO funktioniert, indem es ein Bild in ein Zellenraster unterteilt und Begrenzungsrahmen für jede Zelle vorhersagt. Für jeden Begrenzungsrahmen sagt YOLO die Klassenwahrscheinlichkeit (dh die Wahrscheinlichkeit, dass der Begrenzungsrahmen ein bestimmtes Objekt enthält) und den Konfidenzwert (dh die Wahrscheinlichkeit, dass der Begrenzungsrahmen ein Objekt enthält) voraus. YOLO sagt auch die Koordinaten des Begrenzungsrahmens relativ zu Zelle26 voraus.

Um die Genauigkeit der Vorhersagen zu verbessern, verwendet YOLO eine Technik namens Ankerboxen, bei denen es sich um vordefinierte Boxen unterschiedlicher Größe und Seitenverhältnisse handelt. Jede Ankerbox ist einer bestimmten Zelle zugeordnet und wird verwendet, um die Größe und Form des Objekts in dieser Zelle vorherzusagen. Mithilfe von Ankerboxen kann YOLO Objekte unterschiedlicher Größe und Form verarbeiten. Eine der Hauptstärken von YOLO ist seine Geschwindigkeit. YOLO kann Bilder in Echtzeit verarbeiten und eignet sich daher für Anwendungen wie autonome Fahrzeuge, Überwachungssysteme und Robotik26. YOLO ist außerdem effizient, da ein Bild nur einmal verarbeitet werden muss, im Gegensatz zu herkömmlichen Objekterkennungsalgorithmen, die mehrere Durchgänge durch das Netzwerk erfordern. Eine weitere Stärke von YOLO ist die Fähigkeit, mehrere Objekte in einem Bild zu erkennen. Da YOLO Begrenzungsrahmen für jede Zelle vorhersagt, kann es mehrere Objekte in verschiedenen Bildteilen erkennen. Dadurch eignet sich YOLO ideal zur Fußgängererkennung und Verkehrszeichenerkennung26.

YOLOv7 ist der neue fortschrittliche Detektor in der YOLO-Familie. Dieses Netzwerk nutzt eine Menge an trainierbaren Freebies, die es Echtzeitdetektoren ermöglichen, die Präzision drastisch zu verbessern, ohne die Inferenzkosten zu erhöhen. Es integriert erweiterte und zusammengesetzte Skalierung und ermöglicht es dem Zieldetektor, die Anzahl der Parameter und Berechnungen effektiv zu reduzieren, was zu einer erheblichen Beschleunigung der Erkennungsrate führt27. YOLOv7 übertrifft typische Objektdetektoren in Präzision und Geschwindigkeit von 5 FPS (Bilder pro Sekunde) bis 160 FPS. Es bietet außerdem eine Reihe gebrauchsfertiger Gratispakete und erleichtert die Feinabstimmung von Erkennungsmodellen. Die Konfigurationsdatei von YOLOv7 erleichtert das Hinzufügen zusätzlicher Module und das Generieren neuer Modelle28. Die Studie bietet E-ELAN, das Expand-, Shuffle- und Merge-Kardinalität nutzt, um die Fähigkeit zu erreichen, die Lernfähigkeit des Netzwerks kontinuierlich zu verbessern, ohne den ursprünglichen Gradientenpfad zu unterbrechen29.

Die Vorgängerversion der YOLO-Familie (YOLOv5) wurde in verschiedenen Bereichen effektiv eingesetzt, darunter Fruchterkennung durch Ernteroboter30,31, Fahrzeug- und Schiffserkennung32,33, Auswahl giftiger Pilze und Gesichtserkennung34. Jubayer et al.35 verwendeten YOLOv5 zur Schimmelerkennung und zeigten Präzision, Rückruf, F1 und AP von 98,1 %, 100 %, 99,5 % bzw. 99,6 %.

Die aktualisierte YOLO-Variante (YOLOv7) hat viele Wissenschaftler für maschinelles Lernen und Datenmodellierung begeistert. Mehrere Forscher haben für verschiedene Objekterkennungsphänomene eingesetzt, wie z. B. Video-Objektverfolgung29, Objekterkennung zur Schätzung der Anzahl von Hanfenten36, Objekterkennung von maritimen UAV-Bildern37, Schiffserkennung anhand von Satellitenbildern38, Defekterkennung in verschiedenen Materialien39,40,41, Fahrzeugverfolgung42 sowie im Gesundheitswesen43,44. Gallo et al.45 wendeten das YOLOv7-Modell auf einen Datensatz von Chicorée-Pflanzen an, um Unkräuter zu identifizieren. In ähnlicher Weise wurde die YOLOv7-Architektur verwendet, um Früchte in Obstgärten zu erkennen, was es Ernterobotern erleichtert, Früchte zu lokalisieren und zu sammeln46,47.

Die YOLO-Familie wurde in großem Umfang zur Identifizierung von Blattkrankheiten und Insektenschädlingen in Nutzpflanzen eingesetzt, was uns dazu ermutigte, YOLOv7 als Basismodell zu betrachten. Der YOLOv7-Algorithmus wird noch nicht zur Identifizierung von Teeblattkrankheiten verwendet. Für die Fortführung dieser Forschung werden folgende Wissenslücken berücksichtigt:

Für die Erkennung von Teeblattkrankheiten, das Training und das Testen jedes Modells stehen begrenzte gekennzeichnete Daten zur Verfügung.

Es mangelt an etablierten Bewertungsmetriken oder Benchmarks speziell für die Erkennung von Teeblattkrankheiten, was es schwierig macht, die Leistung von YOLOv7-Modellen mit anderen Methoden zu vergleichen

Während es nur wenige Studien zum Einsatz künstlicher Intelligenz bei Teekrankheiten gibt, wurde in Bangladesch noch keine durchgeführt. Es ist von entscheidender Bedeutung, den potenziellen Nutzen und die Wirksamkeit des Einsatzes von KI zur Identifizierung und Erkennung von Teeblattkrankheiten in Bangladesch zu untersuchen.

Die vorliegende Studie wurde entwickelt, um Teeblattkrankheiten anhand von Bildern zu identifizieren und zu erkennen, die in der natürlichen Umgebung zahlreicher Teeplantagen in der Region Sylhet in Bangladesch aufgenommen wurden. In diesem Artikel werden erkrankte Teeblätter als Forschungsobjekt verwendet, fünf Arten häufiger Fehlerbilder gesammelt, um einen Fehlerdatensatz für Teeblätter zu erstellen, und die hohe Erkennungsgeschwindigkeit und Genauigkeit des YOLOv7-Algorithmus auf den Bereich der Objekterkennung angewendet. Diese Forschung zielt darauf ab, eine automatisierte Methode zur Erkennung, Identifizierung und Klassifizierung von Teepflanzenkrankheiten zu entwickeln, um die Präzision der Krankheitserkennung zu erhöhen, den Landwirten Zeit zu sparen und ihre Lebensgrundlage zu verbessern. Nach unserem Kenntnisstand ist dies das erste Mal, dass YOLOv7 mit dem Aufmerksamkeitsmodell als grundlegende Architektur zur Erkennung kranker Blätter in Teepflanzen verwendet wurde.

Die wesentlichen Beiträge unserer Arbeit sind folgende:

Wir präsentieren ein verbessertes YOLOv7-Objekterkennungsmodell, YOLO-T, zur automatischen Erkennung, Identifizierung und Lösung des Problems der automatischen Erkennungsgenauigkeit von Teeblattkrankheiten in Bildern natürlicher Szenen.

Die Leistung des entwickelten YOLO-T wurde im Vergleich zur Vorgängerversion von YOLO (YOLOv5) bewertet. Die vorliegende Studie und frühere Algorithmen zur Erkennung von Pflanzenkrankheiten werden ebenfalls verglichen.

Wir erstellen und präsentieren einen Originaldatensatz von Bildern kranker Teeblätter, die aus den bekannten Teegärten von Sylhet, Bangladesch, stammen. Dieser brandneue Datensatz könnte zum Trainieren und Testen des YOLOv7-Modells sowie von anderen Forschern verwendet werden, die an vergleichbaren Problemen arbeiten.

Die Datenerweiterungstechnik wird verwendet, um die Anzahl der Trainingsbilder zu erhöhen, um das Problem unzureichender Proben anzugehen und den Erkennungs- und Identifizierungseffekt des Netzwerks zu verbessern.

Die Methodik dieser Studie bietet eine Grundlage für die automatische Prävention und Behandlung von Teeblattkrankheiten und erleichtert den sinnvollen Einsatz von Pestiziden mithilfe der Drohnentechnologie.

Teeblätter wurden in vier renommierten Teegärten im Distrikt Sylhet in Bangladesch gesammelt, wie in Abb. 1 dargestellt. Die geografische Lage dieser vier Gärten ist in Abb. 2 dargestellt, damit die Entfernung zwischen ihnen nachvollzogen werden kann (ArcGIS 10.8). Die Blätter wurden im Juni 2022 in zwei Teegärten gesammelt, nämlich National Tea Company Ltd. (24°55′11,9″ nördlicher Breite und 91°52′25,7″ östlicher Länge) in Lackatoorah, Sylhet und Malnicherra Tea Garden (24°56 ′11,2″ nördlicher Breite und 91°52′01,2″ östlicher Länge) an der Airport Road in Sylhet. Darüber hinaus wird diese Forschung auf zwei weitere Teegärten ausgeweitet, und im August 2022 wurden Blätter in den Gärten Nur Jahan Tea Garden (24°17′50,5″ nördlicher Breite, 91°48′05,6″ östlicher Länge) und Finlay Tea Estate gesammelt (24°19′12,0″ nördlicher Breite und 91°44′35,4″ östlicher Länge), beide in Sreemangal, Sylhet.

Orte zur Erhebung von Forschungsdaten; (A) National Tea Company Ltd., (B) Malnicherra Tea Garden, (C) Nur Jahan Tea Garden, (D) Finlay Tea Estate.

Die geografischen Standorte von vier in dieser Forschung untersuchten Teegärten in Sylhet, Bangladesch.

Die in dieser Studie verwendeten experimentellen und Feldforschungsmethoden wurden in Übereinstimmung mit den geltenden Regeln und Richtlinien durchgeführt. Während des Untersuchungszeitraums wurden nur Bilder von erkrankten Teeblättern gesammelt; Es wurden keine anderen Sammel- oder Probenahmemethoden angewendet. Die Fotos wurden in natürlicher Umgebung mit einer Canon EOS 80D Spiegelreflexkamera mit einer Bildauflösung von 6000 × 4000 Pixel aufgenommen. Die Kamera wurde 0,4 m über dem Blätterdach der Teebäume positioniert. Aus den Bildern erkrankter Teeblätter, die in ihrer natürlichen Umgebung aufgenommen wurden, wurden 4000 Bilder von fünf Arten von Teeblättern (mit Krankheiten infiziert) ausgewählt, um einen Datensatz für diese Studie zu erstellen. Unter diesen 4000 Bildern befinden sich jeweils 800 Bilder von Blättern, die von Schädlingen und Krankheiten wie roten Spinnen, Teemücken, Schwarzfäule, Braunfäule und Blattrost befallen sind. Abbildung 3 zeigt Bilder dieser fünf Teeblattkrankheiten, die von Teeblättern aufgenommen wurden. Zunächst wurden 800 Bilder zufällig aus 4000 Bildern ausgewählt, um die Verallgemeinerung des Erkennungsmodells zu bewerten. Die verbleibenden 3200 Bilder wurden zufällig in einen Trainingssatz (2800) und einen Validierungssatz (400) aufgeteilt. Da die Bildgrößen in unserem Datensatz nicht einheitlich waren, wird eine anfängliche Normalisierungsphase durchgeführt, um alle Fotos auf ein Bild mit einer Auflösung von 640 × 640 zu standardisieren. Um die manuelle Kennzeichnung der Krankheit/Infektion abzuschließen, wurde die Bilddaten-Annotationssoftware „Labeling“ verwendet, um das äußere Rechteck der erkrankten Teile in allen Bildern des Trainingssatzes mithilfe des „Labeling“-Pakets in Python zu erstellen. Nach der erfolgreichen Installation erfolgt für jedes Bild eine Bildbeschriftung (Zeichnen des Begrenzungsrahmens und Beschriften der Klasse). Nach erfolgreicher Beschriftung des Bildes wird die Ausgabe als Textdatei und Klassendatei gespeichert. Um sicherzustellen, dass das Rechteck so wenig wie möglich vom Hintergrund einnimmt, wurden die Bilder anhand des kleinsten umgebenden Rechtecks ​​der Teeblätter beschriftet. Die erkrankten Teeblätter wurden vorsichtig behandelt, um eine Vermischung zu verhindern.

Bilder von Teeblattkrankheiten: (a) Rote Spinne, (b) Teemückenwanze, (c) Schwarzfäule, (d) Braunfäule, (e) Blattrost.

Das YOLO-Paket wird installiert, indem der „YOLOv7“-Code von GitHub abgerufen und geklont wird. Die neueste Version von „YOLO v7“ wird von Torch unterstützt und kann mit Hilfe von „Google Colab“ einfach implementiert werden. Dadurch wird auf dem System ein neuer Ordner mit dem Namen „YOLOv7“ erstellt. In diesem neuen Ordner werden die vorab trainierten Gewichte des Modells und die spezielle YOLO-Verzeichnisstruktur gespeichert. Sobald das Training abgeschlossen ist, wird in YOLOv7 ein neuer Unterordner erstellt. Um den Pfad zum Speicherort des Unterordners hinzuzufügen, wird die Notation „YOLOv7/run/training/experiment/weights/last.pt“ verwendet. Die Größe des Dokumentgewichts wird entsprechend dem hier verwendeten „YAML“-Dokument geändert. Ein Blockdiagramm des Test- und Trainingsrahmens des vorgeschlagenen Modells ist in Abb. 4 dargestellt.

Blockdiagramm des Trainings und Testens des vorgeschlagenen YOLOv7-Modells.

Im Folgenden finden Sie die Einzelheiten zum Training des YOLOv7-Modells.

Fotogröße: 640 × 640

Anzahl der Bilder in jedem Stapel: 10

Merkmalsextraktion: data.yaml

Entwickeltes Yolo: YOLOv7s.yaml

Bild: Messung der Abmessungen eines Bildes (in Höhe und Breite).

Stapel: Die Stapelgröße ist die Anzahl der Bilder, die während einer Iteration gleichzeitig eingespeist werden.

Epochen: Die Anzahl der Trainingswiederholungen oder -iterationen.

Daten: Die Datenstruktur, einschließlich des Speicherorts der Trainings- und Validierungsdaten, der Gesamtzahl der Klassen und der Namen jeder Klasse, wurde in dieser YAML-Datei charakterisiert.

cfg: Um mehr über ein Modell zu erfahren, können Sie sich seine YAML-Konfigurationsdatei im Ordner „model“ ansehen. Es stehen vier verschiedene Modelle mit jeweils unterschiedlichen Größen zur Verfügung. Es wurde die Trainingsdatei mit dem Namen „YOLOv7s.yaml“ verwendet.

Name: Es gibt einen bestimmten Modellnamen.

%cd yolov7/# Ändern Sie den Namen des Verzeichnisses mit dem Befehl in „yolov7“.

!Python-Zug. py --img 640 --batch 10 --epochs 205 --data/content/data.yaml --cfg models/yolov7s.yaml --name TeaLeafDisease

Während des Trainingsprozesses wurden Daten gesammelt, der Verlust analysiert und das Modellgewicht in jeder Epoche mithilfe des Tensorboard-Visualisierungstools erfasst. Die folgenden Spezifikationen für Desktop-Computer (Tabelle 1) wurden für Schulungen und Tests mit dem PyTorch-Deep-Learning-Framework verwendet.

YOLOv7 ist von den Modellarchitekturen YOLOv4, Scaled YOLOv4 und YOLO-R abgeleitet. Die YOLOv7-Modellvorverarbeitungsstrategie wird mit der YOLOv5-Modellvorverarbeitungstechnik kombiniert, und die Erweiterung der Mosaikdaten eignet sich zur Identifizierung kleiner Objekte. Hinsichtlich der Architektur wird als Erweiterung von ELAN das erweiterte ELAN (E-ELAN) vorgeschlagen. Der Rechenblock des Backbones von YOLOv7 ist als E-ELAN bekannt. Die Kardinalität „Expand“, „Shuffle“ und „Merge“ wird angewendet, um die Lernkapazität des Netzwerks kontinuierlich zu verbessern, ohne die Gradientenroute zu beeinträchtigen. Gruppenfaltung wird verwendet, um den Kanal und die Kardinalität des Rechenblocks in der Architektur des Rechenblocks zu erhöhen. Verschiedene Sätze von Rechenblöcken werden angewiesen, verschiedene Funktionen zu erfassen. YOLOv7 führt außerdem die Skalierung zusammengesetzter Modelle für verkettungsbasierte Modelle ein. Die Methode der zusammengesetzten Skalierung ermöglicht die Beibehaltung der Ausgangsattribute des Modells und damit der besten Struktur. Dann konzentriert sich das Modell auf mehrere trainierbare Optimierungsmodule und Techniken, die als „Bag-of-Freebies“ (BoF)27,36 bekannt sind. BoF sind Strategien, die die Leistung eines Modells verbessern, ohne seine Trainingskosten zu erhöhen. YOLOv7 hat die folgenden BoF-Ansätze implementiert.

Die Neuparametrisierung ist eine Technik zur Verbesserung eines Modells nach dem Training. Es verlängert die Trainingsdauer, verbessert jedoch die Inferenzergebnisse. Es gibt zwei Methoden zur Neuparametrisierung, um Modelle zu vervollständigen: Ensemble auf Modellebene und Ensemble auf Modulebene. Folglich hat die Neuparametrisierung auf Modulebene großes Interesse in der wissenschaftlichen Gemeinschaft geweckt. Bei dieser Methode wird der Prozess des Modelltrainings in verschiedene Module unterteilt. Die Ausgaben werden aggregiert, um das endgültige Modell zu erstellen. YOLOv7 verwendet Gradientenflussausbreitungskanäle, um die Modellsegmente (Module) zu identifizieren, die eine Neuparametrisierung erfordern. Die Kopfkomponente der Architektur basiert auf dem Konzept mehrerer Köpfe. Folglich ist der leitende Leiter für die endgültige Kategorisierung verantwortlich, während die Hilfsleiter den Schulungsvorgang unterstützen21.

Die projizierten Modellausgaben befinden sich oben in YOLO. YOLOv7 ist nicht auf einen einzelnen Kopf beschränkt, da es von Deep Supervision inspiriert wurde, einer gängigen Trainingsstrategie für tiefe neuronale Netze. Es hat mehrere Köpfe, um alles zu erreichen, was es will. Der für die Endleistung verantwortliche Kopf ist der Führungskopf, während der zur Unterstützung des Trainings in den mittleren Schichten eingesetzte Kopf als Hilfskopf bezeichnet wird. Um das Training tiefer neuronaler Netze zu verbessern, wurde ein Label Assigner-Mechanismus entwickelt, der Soft Labels basierend auf den Ergebnissen der Netzwerkvorhersage und der Grundwahrheit zuweist. Bei der herkömmlichen Etikettenzuweisung wird die Grundwahrheit direkt verwendet, um harte Etiketten basierend auf voreingestellten Kriterien zu erstellen. Zuverlässige Soft Labels hingegen verwenden Berechnungs- und Optimierungsmethoden, die sowohl die Grundwahrheit als auch die Qualität und Verteilung der Vorhersageausgabe berücksichtigen27,36. Abbildung 5 zeigt die Übersicht über das Netzwerkarchitekturdiagramm von YOLOv7.

Netzwerkarchitekturdiagramm von YOLOv7. Die gesamte Architektur enthält vier allgemeine Module, nämlich ein Eingabeterminal, ein Backbone, einen Kopf und eine Vorhersage, sowie fünf Grundkomponenten: CBS, MP, ELAN, ELAN-H.

(a) Die Batch-Normalisierungsschicht ist direkt mit der Faltungsschicht gekoppelt. Dies zeigt an, dass der normalisierte Mittelwert und die Varianz des Stapels während des Inferenzschritts zur Abweichung und zum Gewicht der Faltungsschicht addiert werden. (b) Unter Verwendung der Additions- und Multiplikationstechnik des Wissenserwerbs in YOLO-R in Kombination mit der Faltungsmerkmalskarte können durch Vorberechnung in der Inferenzstufe in Vektoren standardisiert werden, um sie mit der Abweichung und dem Gewicht der vorherigen oder nachfolgenden Faltungsschicht zu kombinieren, und (c) schließlich kann die Objekterkennung in Echtzeit die Erkennungsgenauigkeit erheblich steigern, ohne die Berechnung zu beeinträchtigen Kosten, sodass die Geschwindigkeit und Präzision im Bereich von 5–160 FPS alle bekannten Objektdetektoren übertrifft und eine schnelle Reaktion und genaue Vorhersage der Objekterkennung ermöglicht27,36.

Das Beschriftungstool wurde verwendet, um die Grundwahrheitsbox der Bilder zu beschriften. Die Anzahl und Verteilung der Datensatz-Tags wurden gezählt und das Ergebnis ist in Abb. 6 dargestellt. Diese Abbildung zeigt eine Anzeige der Attribute des erweiterten Datensatzes. Um die Verallgemeinerung des trainierten Modells zu verbessern, verbessert die Datenerweiterung die Informationen im Trainingsdatensatz, behält die Datenvielfalt bei und passt die Verteilungsrichtung in den Originalbildern an. Die Ordinatenachse in Abb. 6a stellt die Anzahl der Etiketten dar, während die Abszissenachse deren Namen darstellt. Der Datensatz enthält ausreichende Mengen an Proben infizierter und erkrankter Teeblätter. Abbildung 6b zeigt die Tag-Verteilung. Die Ordinate „y“ ist das Abszissenverhältnis der Etikettenmitte zur Bildhöhe und die Abszisse „x“ das Abszissenverhältnis der Etikettenmitte zur Bildbreite. Die Daten sind gleichmäßig und fein verteilt und in der Bildmitte fokussiert, wie in der Abbildung zu sehen ist. Der Teeblatt-Datensatz enthält Beschriftungen für Ground-Truth-Boxen (Abb. 6c). Die Größenstatistik aller Bildränder ist in dieser Abbildung dargestellt. Ein Clustering-Algorithmus generiert Ankerboxen unterschiedlicher Größe auf der Grundlage aller Ground-Truth-Boxen im Datensatz und stellt so sicher, dass die anfängliche Ankerboxgröße des Algorithmus mit der beabsichtigten Größe der erkrankten Teeblätter übereinstimmt. In diesem Fall bezieht sich das Grundwahrheitsfeld auf die Kästchen, die um jeden Fall einer Teeblattkrankheit im Trainingsdatensatz herum mit Anmerkungen versehen sind. Während des Trainings nutzte der YOLOv7-Algorithmus diese Ground-Truth-Boxen, um zu lernen, wie man Objekte ähnlicher Klassen in neuen Bildern erkennt. Der Großteil der Grenzkästen in Abb. 6c ist zentriert. Der YOLOv7-Algorithmus verwendet Ankerkästen, um das Auffinden von Objekten zu erleichtern. Die Platzierung dieser Ankerkästen führt möglicherweise dazu, dass das System Dinge häufiger in der Bildmitte findet.

Beschriftungen und Beschriftungsverteilung, (a) Anzahl und Klasse der Beschriftungen im Datensatz, (b) Position der Beschriftungen in den Bildern des Datensatzes und Größe der Beschriftungen im Datensatz, (c) Ground-Truth-Box.

Der Originaldatensatz und das YOLOv7-Netzwerk wurden verwendet, um das Modell zur Krankheitserkennung in Teeblättern zu erstellen. Die Wirksamkeit des entwickelten Modells wird in Diagrammen dargestellt, die verschiedene Leistungsmetriken von Trainings- und Validierungssätzen zeigen. In Abb. 7 sind drei verschiedene Verlustarten dargestellt: Boxverlust, Objektivitätsverlust und Kategorisierungsverlust. Der Boxverlust bewertet die Fähigkeit eines Algorithmus, den Mittelpunkt eines Objekts genau zu lokalisieren und seinen Begrenzungsrahmen abzuschätzen. Als Messgröße quantifiziert „Objektivität“, wie wahrscheinlich es ist, dass ein Objekt in einem bestimmten Bereich gefunden wird. Eine hohe Objektivität legt nahe, dass sich ein Objekt wahrscheinlich im sichtbaren Bereich eines Bildes befindet. Der Klassifizierungsverlust gibt die Genauigkeit an, mit der ein Algorithmus die richtige Klasse eines Objekts bestimmen kann. Im Verlauf von 0–100 Iterationen variieren die Parameter des Modells erheblich. Mit der Erhöhung der Iterationszahl von 100 auf 150 wurde die Leistung des Modells kontinuierlich optimiert. Der Objektivitätsverlust ist vernachlässigbar, wie die Abbildung zeigt. YOLO v7 bietet höhere Präzisions- und Erinnerungswerte als K-Means.

Visuelle Analyse von Modellbewertungsindikatoren (Präzision, Rückruf und mAP@0,5 für das vorgeschlagene YOLOv7) während des Trainings.

Präzision und Erinnerung können nicht als alleinige Bestimmungsfaktoren für die Leistung eines Modells angesehen werden, da sie hinsichtlich der Leistung des Modells irreführend sein könnten41. Daher verwenden wir zusätzliche Kurven, um die Leistung des Modells zu bewerten. Die Berechnung erfolgt wie in Abb. 8 dargestellt. Die Präzisions-Recall-Kurve ist in Abb. 8a dargestellt, und b zeigt das Diagramm Präzision (P) gegenüber Konfidenz (C), Abb . 8c zeigt den F1-Score bei 97 % mit einer Konfidenz von 0,368, was den Ausgleich von P und R basierend auf dem Bilddatensatz der Teeblattkrankheit befürwortet. Abbildung 8d zeigt das Diagramm „Erinnerung“ (R) versus „Konfidenz“ (C).

Operationsergebniskurve; (a) Präzisions-Konfidenzkurve, (b) Präzisions-Konfidenzkurve, (c) F1-Konfidenzkurve und (d) Rückruf-Konfidenzkurve.

Es wurde beobachtet, dass mit zunehmender Erinnerung auch die Änderungsrate der Präzision zunimmt. Wenn sich die Kurve des Diagramms nahe der oberen rechten Ecke befindet, zeigt dies, dass mit zunehmender Erinnerung der Rückgang der Präzision nicht leicht sichtbar ist und die Gesamtleistung des Modells zugenommen hat. Mit einem Schwellenwert von 0,5 ist der mAP für alle Klassen jedoch hoch und bildet 97,3 % der Erkennungen genau ab. Dies zeigt in Abb. 8, dass der Algorithmus zuverlässig Objekte von Interesse erkennen und klassifizieren kann. Zu Beginn der Trainings- und Testphasen hatte der Algorithmus jedoch aufgrund des Mangels an repräsentativen Daten Probleme, konvergierte jedoch stetig, je mehr Trainingsepochen abgeschlossen wurden.

Die Verwirrungsmatrix in Abb. 9 stellt die tatsächliche Klassifizierung der projizierten Klassifizierung gegenüber. Es kann veranschaulichen, wo das Modell bei der Klassifizierung oder Unterscheidung zwischen zwei Klassen verwirrt wird. Dies wird durch eine Zwei-mal-Zwei-Matrix dargestellt, wobei eine Achse die reale oder Grundwahrheit darstellt und die andere die Wahrheit des Modells oder die Vorhersage darstellt. In einem perfekten Szenario würde 1,00 die Diagonale von links oben nach rechts unten in der Matrix umfassen. Der richtige Klassifizierungsprozentsatz für jede Art von erkranktem Teeblatt gemäß dem Modell scheint wie folgt zu sein:

Schwarzfäule 97 %

Braunfäule 97 %

Blattrost 97 %

Rote Spinne 98 %

Teemücke 97 %

Verwirrungsmatrixdiagramm für das vorgeschlagene YOLO-T-Modell.

Neben der Anzeige des Prozentsatzes der korrekt klassifizierten Algorithmusausgabe ist es auch möglich, zu sehen, wie oft die Klassifizierung falsch war. Schwarzfäule, Braunfäule und Blattrost wurden in 2 % der Fälle fälschlicherweise als Blattrost, Schwarzfäule bzw. Teemücke kategorisiert, was bei der Klassifizierung von Krankheiten für die größte Verwirrung sorgte.

Die experimentellen Ergebnisse umfassten vier Ergebnisse: richtig positiv (TP), was sich auf die genaue Erkennung einzeln markierter erkrankter Blätter bezieht; falsch positiv (FP), was sich auf ein Objekt bezieht, das fälschlicherweise als erkranktes Teeblatt identifiziert wurde; wahr negativ (TN), was sich auf negative Proben mit einer negativen Systemvorhersage bezieht; und falsch negativ (FN), was sich auf kranke Teeblätter bezieht, die übersehen wurden. Das YOLOv7-Modell dieser vorliegenden Studie wird mit YOLOv5 verglichen, um seine Genauigkeit und Wirksamkeit zu bestätigen. Tabelle 2 vergleicht mAP, Präzision, Rückruf und Trainingszeit zwischen YOLOv7 und YOLOv5. Unter Präzision versteht man den Anteil korrekt erkannter Teeblattkrankheiten über alle Bilder hinweg. Die Rückrufrate ist der Anteil der genau erkannten erkrankten Blätter im Datensatz. Die einzige Herausforderung, auf die wir beim YOLOv7-Modell gestoßen sind, bestand darin, dass das Training mehr Zeit erforderte, während das YOLOv5-Modell weniger Zeit benötigte. Die anderen Parameter (Tabelle 2) sind höher als YOLOv5. Prominente statistische Metriken werden mithilfe der folgenden Gleichungen berechnet35.

Basierend auf der Analyse und dem Vergleich früherer Versuchsreihen lässt sich der Schluss ziehen, dass der in dieser Studie vorgestellte aktualisierte YOLOv7-Algorithmus erhebliche Vorteile hinsichtlich der Erkennungsgenauigkeit bietet. Trotz eines leichten Geschwindigkeitsverlusts kann diese Methode immer noch die Echtzeitanforderungen praktischer Anwendungen zur Erkennung von Teeblattkrankheiten erfüllen.

Die Ergebnisse der Visualisierung der Identifizierung der fünf Arten von Teeblattkrankheiten sind in Abb. 10 dargestellt. Diese Abbildung zeigt, dass der vorgeschlagene Algorithmus erkrankte Blätter durch die Konstruktion eines perfekten Begrenzungsrahmens genau erkennt und identifiziert. Deep Learning erfreut sich bei Forschern immer größerer Beliebtheit für Präzisionslandwirtschaftsanwendungen wie Krankheitserkennung, Unkrautbekämpfung, Fruchterkennung usw.45,46,47. Durch die Identifizierung des erkrankten Teils können Landwirte wirksamere Maßnahmen zur Krankheitsbekämpfung ergreifen. Die Präzision, der Rückruf und die durchschnittliche Präzision dieses aktuellen YOLOv7-Modells sind besser als bei anderen Objekterkennungsmethoden, die in der Studie von Hu et al.48 erwähnt wurden. Dabei wurde eine Deep-Learning-Technik eingesetzt, um den Schweregrad der Teeblattfäule-Krankheit zu identifizieren und zu bestimmen48. Seine Ergebnisse waren denen anderer Objekterkennungsalgorithmen überlegen; Die Leistung der aktuellen Arbeit ist jedoch früheren Versuchen weit überlegen.

Einige Beispiele für Ergebnisse zur Erkennung von Teeblattkrankheiten mit YOLOv7. Die Begrenzungsrahmen bestehen aus Bildern erkrankter Teeblätter.

Im Gegensatz dazu wurde nach Durchsicht der Ergebnisse derselben Studie48 festgestellt, dass YOLOv3, schnelleres R-CNN und schnelleres R-CNN + FPN offenbar weniger Trainingszeit erfordern48. Der Vergleich der Ergebnisse verschiedener Algorithmen zur Erkennung von Teeblattkrankheiten mit den in dieser Studie erzielten Ergebnissen ist in Tabelle 3 dargestellt. Es ist zu beobachten, dass die Erkennungsgenauigkeit und -präzision viel höher ist als bei anderen ähnlichen Studien, in denen Forscher unterschiedliche Algorithmen verwendeten.

Teeschädlinge können je nachdem, wo sie angreifen oder befallen, in drei Gruppen eingeteilt werden, darunter Wurzelschädlinge wie Maikäferlarven, Wollläuse und Fadenwürmer; Stängelschädlinge wie der Schrotbohrer und der Rote Kaffeebohrer; und Blattschädlinge wie Teemückenwanzen, Spülwürmer, Greifraupen, Blattwickler, Thripse und alle Milben. Krankheiten, die durch die Teemückenwanze und die Rote Spinne verursacht werden, gehören zu den größten Bedrohungen für die Teeproduktion in Bangladesch, was durch andere Studien bestätigt und festgestellt wurde54.

Angriffspunkte für Teekrankheiten sind oft klein, und der komplexe Hintergrund des Anbaugebiets erschwert leicht das Verfahren ihrer intelligenten Erkennung. Darüber hinaus sind mehrere Teekrankheiten auf der gesamten Blattoberfläche konzentriert, was Rückschlüsse aus globalen Daten erforderlich macht55. In Bezug auf die Aufgabe der Erkennung von Blattkrankheiten, bei der die Genauigkeit der entscheidende Faktor war, ist das vorgeschlagene YOLO-T-Modell anderen Modellen überlegen. Wir haben festgestellt, dass einige Begrenzungsrahmen zu groß für den Krankheitsbereich sind. Der beschriftete Name und die Vorhersage erscheinen nicht zusammen im Bild. Dies liegt daran, dass der Name zu lang konfiguriert ist und daher in den Bildern unvollständig erscheint. Durch korrekte Anmerkungen, Beschriftungen und die Verwendung eines kürzeren, aussagekräftigen Namens konnte das Problem behoben werden. Der Begrenzungsrahmen muss nahe am erforderlichen Erkennungsbereich des Objekts gezeichnet werden. Diese Technik kann den Trainingsalgorithmus dabei unterstützen, ausschließlich innerhalb des Begrenzungsrahmens zu lernen. Ein weiterer Vorteil dieses Ansatzes ist die Bildauflösung. Die Bildeingabegröße 640 × 640 bietet ein Höchstmaß an Präzision56. Je größer das Eingabebild ist, desto mehr Informationen enthält es.

Der einzige Nachteil, den wir bei der Verwendung des YOLOv7-Modells festgestellt haben, war seine lange Einarbeitungszeit. Wir haben unsere Version (YOLO-T) mit der neuesten Version (YOLOv5) verglichen. Eine neue Studie ergab, dass YOLOv7 weniger Trainingszeit benötigte als YOLOv5, was unseren Erkenntnissen widerspricht47. Diese Abweichung in der Trainingsdauer kann auf die Nutzung von Grafikprozessoren (GPUs) zurückzuführen sein. Die Verwendung einer normalen GPU kann die Trainingszeit von YOLOv7 verlangsamen.

Abgesehen von der Trainingszeit stimmten die Ergebnisse einer aktuellen Studie55, die auch die YOLOv5-Version für die Teeblattkrankheit verwendete, mit denen der vorliegenden Forschung überein. YOLOv5 verwendet eine Focus-Struktur, die weniger CUDA-Speicher (Compute Unified Device Architecture), eine reduzierte Schicht und eine verbesserte Vorwärts- und Rückwärtsausbreitung erfordert. Zudem wird ein Darknet-Backbone mit stufenübergreifendem Teilnetz genutzt. Andererseits nutzt E-ELAN in YOLOv7 die Erweiterungs-, Shuffle- und Merge-Kardinalität, um die Fähigkeit zu erhalten, die Lernfähigkeit des Netzwerks kontinuierlich zu verbessern, ohne die Gradientenroute zu beschädigen. Laut einer Studie weist YOLOv7 im Vergleich zu anderen Algorithmen wie YOLOR, PP-YOLOE, YOLOX, Scaled-YOLOv4 und YOLOv5 (r6.1)57 eine höhere Geschwindigkeit und Genauigkeit auf. In mehreren neueren Untersuchungen wurden auch die Erkennungsgenauigkeit und -präzision des YOLOv7-Algorithmus bewertet und berichtet47,56,58,59,60.

Das Erkennen und Erkennen von Krankheiten ist von entscheidender Bedeutung für die Verbesserung der Teeproduktion während des Anbaus und der Ernte. In der heutigen Zeit des intensiven Einsatzes von Computertechnologie könnte ein verbessertes System zur Erkennung und Identifizierung von Krankheiten in den Teeplantagen eines Entwicklungslandes wie Bangladesch neben der Verbesserung des wohlhabenden Lebensstils der Bauern ein erhebliches Potenzial für die Wirtschaft des Landes haben. In dieser Forschungsstudie wird das YOLOv7-Modell (YOLO-T) verwendet, um verschiedene Arten von Teeblattkrankheiten in Teegärten zu erkennen und zu identifizieren. Das vorgeschlagene Modell erkannte automatisch fünf verschiedene Arten von Teeblattkrankheiten und unterschied zwischen gesunden und kranken Blättern. Die Gesamtklassifizierungsgenauigkeit beträgt 97,30 %, während Erinnerung und Präzision 96,4 % bzw. 96,7 % betragen. Das vorgeschlagene Modell übertrifft die neuesten im Diskussionsabschnitt vorgestellten Modelle hinsichtlich Gesamtpräzision, Genauigkeit und Erinnerung. In dieser Studie wurde jedoch die Leistung von YOLOv7 mit der Vorgängerversion YOLOv5 verglichen und es wurde festgestellt, dass YOLOv7 besser abschneidet. Auch wenn die Ergebnisse positiv sind, ist der vorgeschlagene Ansatz durch die Dauer der Ausbildungszeit begrenzt. Zukünftige Forscher können die Batch-Normalisierung für die nächsten Projekte einsetzen, um den Trainingsprozess zu beschleunigen und die Präzision zu verbessern. Die Erweiterung des Datensatzes ist einer der Schwerpunkte für die zukünftige Entwicklung. Zukünftige Forschungen sollten Proben beschädigter Teeblätter verschiedener Sorten, Fruchtbarkeitsstadien und Aufnahmewinkel im Feld sammeln, um einen großen Datensatz zusammenzustellen.

Darüber hinaus kann die Bildqualität durch den Einsatz fortschrittlicherer Beschriftungstechniken verbessert werden. Das Modell ist mit IoT-Geräten (Internet of Things) kompatibel und gilt für reale Anwendungen. Dieser Rahmen kann leicht modifiziert werden, um zusätzliche Pflanzenkrankheiten zu berücksichtigen, und an andere Pflanzen angepasst werden. Der vorgeschlagene Algorithmus kann in einer mobilen Anwendung implementiert werden, um Landwirten jederzeit den Zugang zu Unterstützung für ihre Pflanzen zu erleichtern. Diese Forschung erleichtert die Früherkennung zahlreicher Teeblattkrankheiten, was zu ihrer rechtzeitigen Erkennung beitragen kann. Nachfolgende Studien können sich auf das Sammeln von Temperatur- und Feuchtigkeitsinformationen, Informationen zu pathogenen Sporen, Bodeninformationen und Umweltparametern mithilfe mehrerer Sensoren konzentrieren, Daten aus mehreren Quellen zusammenführen und ein Frühwarnmodell für Teeblattkrankheiten erstellen, das auf der Fusion mehrerer Daten basiert Frühwarnung, wenn die Krankheit nicht auftritt.

Die während der aktuellen Studie verwendeten und analysierten Datensätze sind auf Anfrage beim entsprechenden Autor erhältlich.

Sanlier, N., Gokcen, BB & Altuğ, M. Teekonsum und Krankheitskorrelationen. Trends Lebensmittelwissenschaft. Technol. 78, 95–106. https://doi.org/10.1016/j.tifs.2018.05.026 (2018).

Artikel CAS Google Scholar

Verma, HV Kaffee und Tee: Soziokulturelle Bedeutung, Kontext und Branding. Asien-Pazifik. J. Geschäftsführer Res. Innov. 9(2), 157–170. https://doi.org/10.1177/2319510X13504283 (2013).

Artikel Google Scholar

Debnath, B., Haldar, D. & Purkait, MK Potenzial und nachhaltige Nutzung von Teeabfällen: Ein Überblick über den aktuellen Status und zukünftige Trends. J. Umgebung. Chem. Ing. 9(5), 106179. https://doi.org/10.1016/j.jece.2021.106179 (2021).

Artikel CAS Google Scholar

Hu, G., Yang, X., Zhang, Y. & Wan, M. Identifizierung von Teeblattkrankheiten durch Verwendung eines verbesserten tiefen Faltungs-Neuronalen Netzwerks. Aufrechterhalten. Berechnen. Inf. Syst. 24, 100353. https://doi.org/10.1016/j.suscom.2019.100353 (2019).

Artikel Google Scholar

Ahmed, JU et al. Ernährungssicherheit und Ernährungsvielfalt von Teearbeitern in zwei Teegärten im Großraum Sylhet in Bangladesch. GeoJournal 86(2), 1015–1027. https://doi.org/10.1007/s10708-019-10108-z (2021).

Artikel Google Scholar

Mathew, MP & Mahesh, TY Blattbasierte Krankheitserkennung in Paprikapflanzen mit YOLOv5. SIViP 16(3), 841–847. https://doi.org/10.1007/s11760-021-02024-y (2022).

Artikel Google Scholar

Bao, W., Fan, T., Hu, G., Liang, D. & Li, H. Erkennung und Identifizierung von Teeblattkrankheiten basierend auf AX-RetinaNet. Wissenschaft. Rep. 12(1), 1–16. https://doi.org/10.1038/s41598-022-06181-z (2022).

Artikel CAS Google Scholar

Zhao, Y., Gong, L., Huang, Y. & Liu, C. Ein Überblick über Schlüsseltechniken der visionsbasierten Steuerung für Ernteroboter. Berechnen. Elektron. Landwirtschaft. 127, 311–323. https://doi.org/10.1016/j.compag.2016.06.022 (2016).

Artikel Google Scholar

Wang, Q., Nuske, S., Bergerman, M. und Singh, S. Automatisierte Ernteertragsschätzung für Apfelplantagen. In Experimental Robotics (S. 745–758). Springer, (2013). https://doi.org/10.1007/978-3-319-00065-7_50.

Castelao Tetila, E., Brandoli Machado, B., Belete, NAS, Guimaraes, DA & Pistori, H. Identifizierung von Blattkrankheiten bei Sojabohnen mithilfe unbemannter Luftfahrzeugbilder. IEEE Geosci. Fernbedienungssensor. Lette. 14, 2190–2194. https://doi.org/10.1109/LGRS.2017.2743715 (2017).

Artikel ADS Google Scholar

Maniyath, SR, et al. Erkennung von Pflanzenkrankheiten mittels maschinellem Lernen. In Proceedings of the 2018 International Conference on Design Innovations for 3Cs Compute Communicate Control, ICDI3C 2018, Bangalore, Indien, 25.–26. April 2018; S. 41–45 (2018).

Ferentinos, KP Deep-Learning-Modelle zur Erkennung und Diagnose von Pflanzenkrankheiten. Berechnen. Elektron. Landwirtschaft. 145, 311–318. https://doi.org/10.1016/j.compag.2018.01.009 (2018).

Artikel Google Scholar

Fuentes, A., Yoon, S., Kim, SC & Park, DS Ein robuster Deep-Learning-basierter Detektor zur Echtzeiterkennung von Tomatenpflanzenkrankheiten und Schädlingen. Sensoren 17(9), 2022. https://doi.org/10.3390/s17092022 (2017).

Artikel ADS PubMed PubMed Central Google Scholar

Tiwari, V., Joshi, RC & Dutta, MK Dichte Faltungs-Neuronale Netze basierend auf der Erkennung und Klassifizierung von Pflanzenkrankheiten in mehreren Klassen mithilfe von Blattbildern. Ökologisch. Inf. 63, 101289. https://doi.org/10.1016/j.ecoinf.2021.101289 (2021).

Artikel Google Scholar

Hossain, MS, Mou, RM, Hasan, MM, Chakraborty, S. & Abdur Razzak, M. Erkennung und Erkennung von Teeblattkrankheiten mithilfe einer Support-Vektor-Maschine. In Proceedings – 2018 IEEE 14th International Colloquium on Signal Processing and its Application, CSPA 2018 150–154 (Institute of Electrical and Electronics Engineers Inc., 2018). https://doi.org/10.1109/CSPA.2018.8368703

Sun, Y., Jiang, Z., Zhang, L., Dong, W. & Rao, Y. SLIC_SVM-basierte Blattkrankheits-Ausprägungskartenextraktion von Teepflanzen. Berechnen. Elektron. Landwirtschaft. 157, 102–109. https://doi.org/10.1016/j.compag.2018.12.042 (2019).

Artikel Google Scholar

Hu, G., Wei, K., Zhang, Y., Bao, W. & Liang, D. Schätzung der Schwere der Teeblattfäule in Bildern natürlicher Szenen. Präzise. Landwirtschaft. 22(4), 1239–1262. https://doi.org/10.1007/s11119-020-09782-8 (2021).

Artikel CAS Google Scholar

Krizhevsky, A., Sutskever, I. und Hinton, GE Imagenet-Klassifizierung mit tiefen Faltungs-Neuronalen Netzen. In Proceedings of the 25th International Conference on Neural Information Processing Systems – Band 1, NIPS'12, Seiten 1097–1105, USA, 2012. Curran Associates Inc. (2012)

Simonyan, K. & Zisserman, A. Sehr tiefe Faltungsnetzwerke für die Bilderkennung im großen Maßstab. arXiv-Vorabdruck arXiv:1409.1556 (2014).

Szegedy, C., et al. Mit Windungen tiefer gehen. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (S. 1–9) (2015)

Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J. und Wojna, Z. Überdenken der Anfangsarchitektur für Computer Vision. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (S. 2818–2826) (2016).

He, K., Zhang, X., Ren, S. und Sun, J. Deep Residual Learning für die Bilderkennung. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (S. 770–778) (2016).

Huang, G., Liu, Z., Van Der Maaten, L. und Weinberger, KQ Dicht verbundene Faltungsnetzwerke. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (S. 4700–4708) (2017).

Xue, Z., Xu, R., Bai, D. & Lin, H. YOLO-tea: Ein durch YOLOv5 verbessertes Modell zur Erkennung von Teekrankheiten. Wälder 14(2), 415. https://doi.org/10.3390/f14020415 (2023).

Artikel Google Scholar

Wang, L. und Yan, WQ Tree Leaves-Erkennung basierend auf Deep Learning. Im International Symposium on Geometry and Vision (S. 26–38). Springer, Cham (2021). https://doi.org/10.1007/978-3-030-72073-5_3

Jiang, P., Ergu, D., Liu, F., Cai, Y. & Ma, B. Ein Überblick über die Entwicklungen des Yolo-Algorithmus. Proz. Computer. Wissenschaft. Rev. 199, 1066–1073. https://doi.org/10.1016/j.procs.2022.01.135 (2022).

Artikel Google Scholar

Wang, CY, Bochkovskiy, A., & Liao, HYM YOLOv7: Trainable Bag of Freebies setzt neue Maßstäbe für Echtzeit-Objektdetektoren. arXiv-Vorabdruck arXiv:2207.02696 (2022). https://doi.org/10.48550/arXiv.2207.02696

Pham, V., Nguyen, D. und Donan, C. Erkennung und Klassifizierung von Straßenschäden mit YOLOv7. arXiv-Vorabdruck arXiv:2211.00091 (2022). https://doi.org/10.48550/arXiv.2211.00091

Yang, F., Zhang, X. und Liu, B. Videoobjektverfolgung basierend auf YOLOv7 und DeepSORT. arXiv-Vorabdruck arXiv:2207.12202 (2022). https://doi.org/10.48550/arXiv.2207.12202

Kuznetsova, A., Maleva, T. & Soloviev, V. Erkennung von Äpfeln in Obstgärten mit YOLOv3 und YOLOv5 im Allgemeinen und Nahaufnahmen. Im International Symposium on Neural Networks (S. 233–243). Springer, Cham (2020). https://doi.org/10.1007/978-3-030-64221-1_20

Yan, B., Fan, P., Lei, X., Liu, Z. & Yang, F. Eine Echtzeit-Apple-Zielerkennungsmethode für Kommissionierroboter basierend auf verbessertem YOLOv5. Remote Sens. 13(9), 1619. https://doi.org/10.3390/rs13091619 (2021).

Artikel ADS Google Scholar

Kasper-Eulaers, M. et al. Erkennung von Schwerlastfahrzeugen auf Rastplätzen bei winterlichen Bedingungen mit YOLOv5. Algorithmen 14(4), 114. https://doi.org/10.3390/a14040114 (2021).

Artikel Google Scholar

Chen, Y., Zhang, C., Qiao, T., Xiong, J. und Liu, B. Schiffserkennung in optischen Sensorbildern basierend auf YOLOv5. In der zwölften internationalen Konferenz über Grafik und Bildverarbeitung (ICGIP 2020) (Bd. 11720, S. 102–106). SPIE (2021). https://doi.org/10.1117/12.2589395

Yang, G., et al. Gesichtsmaskenerkennungssystem mit YOLOV5 basierend auf Bilderkennung. Im Jahr 2020 IEEE 6. Internationale Konferenz für Computer und Kommunikation (ICCC) (S. 1398–1404). IEEE (2020). https://doi.org/10.1109/ICCC51575.2020.9345042

Jubayer, F. et al. Erkennung von Schimmel auf der Lebensmitteloberfläche mit YOLOv5. Curr. Res. Lebensmittelwissenschaft. 4, 724–728. https://doi.org/10.1016/j.crfs.2021.10.003 (2022).

Artikel Google Scholar

Jiang, K. et al. Ein durch den Aufmerksamkeitsmechanismus verbesserter YOLOv7-Objekterkennungsalgorithmus zur Schätzung der Hanf-Entenzahl. Landwirtschaft 12(10), 1659. https://doi.org/10.3390/agriculture12101659 (2022).

Artikel Google Scholar

Zhao, H., Zhang, H. & Zhao, Y. Yolov7-sea: Objekterkennung von maritimen UAV-Bildern basierend auf verbessertem yolov7. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (S. 233–238) (2023).

Patel, K., Bhatt, C. & Mazzeo, PL Deep-Learning-basierte automatische Erkennung von Schiffen: Eine experimentelle Studie unter Verwendung von Satellitenbildern. J. Bildgebung. 8(7), 182. https://doi.org/10.3390/jimaging8070182 (2022).

Artikel PubMed PubMed Central Google Scholar

Sun, YX, Zhang, YJ, Wei, ZH & Zhou, JT Eine Methode zur Klassifizierung und Lokalisierung von Oberflächenfehlern in warmgewalzten Stahlbändern basierend auf YOLOV7. Metalurgija 62(2), 240–242 (2023).

Google Scholar

Wang, Y., Wang, H. & Xin, Z. Effizientes Erkennungsmodell von Stahlbandoberflächenfehlern basierend auf YOLO-V7. IEEE-Zugriff https://doi.org/10.1109/ACCESS.2022.3230894 (2022).

Artikel PubMed PubMed Central Google Scholar

Zheng, J., Wu, H., Zhang, H., Wang, Z. & Xu, W. Algorithmus zur Erkennung von Isolatorfehlern basierend auf verbessertem YOLOv7. Sensoren 22(22), 8801. https://doi.org/10.3390/s22228801 (2022).

Artikel ADS PubMed PubMed Central Google Scholar

Tran, DNN, Pham, LH, Nguyen, HH und Jeon, JW Fahrzeugverfolgung von Fahrzeugen im Stadtmaßstab mit mehreren Kameras basierend auf YOLOv7. Im Jahr 2022 IEEE International Conference on Consumer Electronics-Asia (ICCE-Asia) (S. 1–4). IEEE (2022). https://doi.org/10.1109/ICCE-Asia57006.2022.9954809

Sun, KX und Cong, C. Forschung zur Erkennung von Brustanomalien basierend auf dem verbesserten YOLOv7-Algorithmus. Im Jahr 2022 IEEE International Conference on Bioinformatics and Biomedicine (BIBM) (S. 3884–3886). IEEE (2022). https://doi.org/10.1109/BIBM55620.2022.9995687

Bayram, AF, Gurkan, C., Budak, A. & Karataş, H. Ein Erkennungs- und Vorhersagemodell basierend auf Deep Learning, unterstützt durch erklärbare künstliche Intelligenz für Nierenerkrankungen. EUR. J. Sci. Technol. 40, 67–74 (2022).

Google Scholar

Gallo, I. et al. Tiefenobjekterkennung von Kulturunkräutern: Leistung von YOLOv7 anhand eines realen Falldatensatzes aus UAV-Bildern. Remote Sens. 15(2), 539. https://doi.org/10.3390/rs15020539 (2023).

Artikel ADS Google Scholar

Chen, J. et al. Ein multiskaliges, leichtes und effizientes Modell basierend auf YOLOv7: Angewendet auf Zitrusplantagen. Pflanzen 11(23), 3260. https://doi.org/10.3390/plants11233260 (2022).

Artikel PubMed PubMed Central Google Scholar

Zhou, Y. et al. Adaptive aktive Positionierung der Obstpflückpunkte von Camellia oleifera: Klassische Bildverarbeitung und YOLOv7-Fusionsalgorithmus. Appl. Wissenschaft. 12(24), 12959. https://doi.org/10.3390/app122412959 (2022).

Artikel CAS Google Scholar

Hu, G., Wang, H., Zhang, Y. & Wan, M. Erkennung und Schweregradanalyse der Teeblattfäule basierend auf Deep Learning. Berechnen. Elektr. Eng.. 90, 107023. https://doi.org/10.1016/j.compeleceng.2021.107023 (2021).

Artikel Google Scholar

Gayathri, S., Wise, DJW, Shamini, PB und Muthukumaran, N. Bildanalyse und Erkennung von Teeblattkrankheiten mithilfe von Deep Learning. Im Jahr 2020 International Conference on Electronics and Sustainable Communication Systems (ICESC) (S. 398–403). IEEE (2020). https://doi.org/10.1109/ICESC48915.2020.9155850

Latha, RS, et al. Automatische Erkennung von Teeblattkrankheiten mithilfe eines Deep Convolution Neural Network. Im Jahr 2021 Internationale Konferenz für Computerkommunikation und Informatik (ICCCI) (S. 1–6). IEEE (2021). https://doi.org/10.1109/ICCCI50826.2021.9402225

Datta, S. & Gupta, N. Ein neuartiger Ansatz zur Erkennung von Teeblattkrankheiten mithilfe eines tiefen neuronalen Netzwerks. Proz. Berechnen. Wissenschaft. 218, 2273–2286. https://doi.org/10.1016/j.procs.2023.01.203 (2023).

Artikel Google Scholar

Chen, J., Liu, Q. & Gao, L. Visuelle Erkennung von Teeblattkrankheiten mithilfe eines Faltungsmodells eines neuronalen Netzwerks. Symmetry 11(3), 343. https://doi.org/10.3390/sym11030343 (2019).

Artikel ADS Google Scholar

Mukhopadhyay, S., Paul, M., Pal, R. & De, D. Erkennung von Teeblattkrankheiten mittels multiobjektiver Bildsegmentierung. Multimed. Werkzeuge Appl. 80, 753–771. https://doi.org/10.1007/s11042-020-09567-1 (2021).

Artikel Google Scholar

Mamun, MSA Teeproduktion in Bangladesch: Vom Strauch bis zur Tasse. Agron. Pflanzen Vol. Prod. Technol. https://doi.org/10.1007/978-981-32-9151-5_21 (2019).

Artikel Google Scholar

Lin, J., Bai, D., Xu, R. & Lin, H. TSBA-YOLO: Ein verbessertes Modell zur Erkennung von Teekrankheiten basierend auf Aufmerksamkeitsmechanismen und Merkmalsfusion. Wälder 14(3), 619. https://doi.org/10.3390/f14030619 (2023).

Artikel Google Scholar

Chen, J., Bai, S., Wan, G. & Li, Y. Forschung zur YOLOv7-basierten Fehlererkennungsmethode für Kfz-Lauflichter. Syst. Wissenschaft. Kontroll-Ing. 11(1), 2185916. https://doi.org/10.1080/21642583.2023.2185916 (2023).

Artikel Google Scholar

Yung, NDT, Wong, WK, Juwono, FH und Sim, ZA Schutzhelmerkennung mittels Deep Learning: Implementierung und Vergleichsstudie mit YOLOv5, YOLOv6 und YOLOv7. Im Jahr 2022 Internationale Konferenz über grüne Energie, Computer und nachhaltige Technologie (GECOST) (S. 164–170). IEEE. (2022). https://doi.org/10.1109/GECOST55694.2022.10010490

Hu, B., Zhu, M., Chen, L., Huang, L., Chen, P. und He, M. Methode zur Identifizierung von Baumarten basierend auf verbessertem YOLOv7. Im Jahr 2022 IEEE 8th International Conference on Cloud Computing and Intelligent Systems (CCIS) (S. 622–627). IEEE. (2022). https://doi.org/10.1109/CCIS57298.2022.10016392

Liu, X. & Yan, WQ Fahrzeugbezogene Entfernungsschätzung mit angepasstem YOLOv7. In Image and Vision Computing: 37. Internationale Konferenz, IVCNZ 2022, Auckland, Neuseeland, 24.–25. November 2022, überarbeitete ausgewählte Artikel (S. 91–103). Cham: Springer Nature Switzerland. (2023). https://doi.org/10.1007/978-3-031-25825-1_7

Yuan, W. Genauigkeitsvergleich von YOLOv7 und YOLOv4 hinsichtlich der Bildanmerkungsqualität für die Klassifizierung von Apfelblütenknospen. Agrartechnik. 5(1), 413–424. https://doi.org/10.3390/agriengineering5010027 (2023).

Artikel Google Scholar

Referenzen herunterladen

Die Autoren danken Professor Dr. Fuad Mondal von der Abteilung für Entomologie der Sylhet Agricultural University für seine Unterstützung bei der Validierung der Identität der Teeblattkrankheiten.

Diese Forschungsarbeit wird teilweise von der University Grants Commission (UGC) von Bangladesch über das Sylhet Agricultural University Research System (SAURES) finanziert (Projekt-ID: SAURES-UGC-21-22-82). Die Finanzierungsstelle erhält Mittel für die Durchführung von Experimenten, Feld- und Laborarbeiten, Materialsammlung usw. Für das Verfassen und Veröffentlichen dieser Arbeit wurden keine Mittel erhalten. Die Autoren trugen die Kosten für das Schreiben, Überprüfen, Bearbeiten und Veröffentlichen dieses Manuskripts.

Diese Autoren trugen gleichermaßen bei: Md. Janibul Alam Soeb und Md. Fahad Jubayer.

Abteilung für landwirtschaftliche Energie und Maschinen, Sylhet Agricultural University, Sylhet, 3100, Bangladesch

MD. Janibul Alam Soeb, Tahmina Akanjee Tarin und Muhammad Rashed Al Mamun

Abteilung für Lebensmitteltechnik und -technologie, Sylhet Agricultural University, Sylhet, 3100, Bangladesch

MD. Fahad Jubayer

Abteilung für Agrarbau und Umwelttechnik, Sylhet Agricultural University, Sylhet, 3100, Bangladesch

Fahim Mahafuz Ruhad

Global Centre for Environmental Remediation (GCER), College of Engineering, Science and Environment, The University of Newcastle, Callaghan, NSW, 2308, Australien

Aney Parven & Islam Md. Meftaul

Abteilung für Agrarchemie, Sher-e-Bangla Agricultural University, Dhaka, 1207, Bangladesch

Aney Parven & Islam Md. Meftaul

Erdöl- und Chemieingenieurwesen, Fakultät für Ingenieurwissenschaften, Universiti Teknologi Brunei, Bandar Seri Begawan, BE1410, Brunei Darussalam

Nabisab Mujawar Mubarak

Fakultät für integrierte Technologien, Universität Brunei Darussalam, Bandar Seri Begawan, BE1410, Brunei Darussalam

Soni Lanka Karri

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

MJAS und MFJ trugen gleichermaßen zur Konzeptualisierung, Programmierung, Erstellung, Überprüfung und Fertigstellung des Manuskripts bei. FMR übernahm die Codierung und war am Training und Testen des Modells beteiligt. TAT und MRAM leisteten einen wesentlichen Beitrag zur Datenerfassung und zum Verfassen von Rezensionen. AP, NMM und SLK haben zum Schreiben, Überprüfen und Bearbeiten beigetragen. IMM war an der Datenverarbeitung, dem Schreiben, der Überprüfung und der Fertigstellung des Manuskripts beteiligt. Alle Autoren haben das Manuskript gelesen und dazu beigetragen. Alle Autoren erklären sich damit einverstanden, für die Aspekte der Arbeit Verantwortung zu übernehmen und sicherzustellen, dass Fragen im Zusammenhang mit der Genauigkeit oder Integrität eines Teils der Arbeit angemessen untersucht und gelöst werden.

Korrespondenz mit Md. Janibul Alam Soeb, Md. Fahad Jubayer, Nabisab Mujawar Mubarak oder Islam Md. Meftaul.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Soeb, MJA, Jubayer, MF, Tarin, TA et al. Erkennung und Identifizierung von Teeblattkrankheiten basierend auf YOLOv7 (YOLO-T). Sci Rep 13, 6078 (2023). https://doi.org/10.1038/s41598-023-33270-4

Zitat herunterladen

Eingegangen: 23. Februar 2023

Angenommen: 11. April 2023

Veröffentlicht: 13. April 2023

DOI: https://doi.org/10.1038/s41598-023-33270-4

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.