W zależności od ilości danych do przetworzenia generowanie pliku może się wydłużyć.

Jeśli generowanie trwa zbyt długo można ograniczyć dane np. zmniejszając zakres lat.

Artykuł

Pobierz plik Pobierz BibTeX

Tytuł

Two-Stage Ensemble Deep Learning Model for Precise Leaf Abnormality Detection in Centella asiatica

Autorzy

[ 1 ] Instytut Logistyki, Wydział Inżynierii Zarządzania, Politechnika Poznańska | [ P ] pracownik

Dyscyplina naukowa (Ustawa 2.0)

[6.6] Nauki o zarządzaniu i jakości

Rok publikacji

2024

Opublikowano w

AgriEngineering

Rocznik: 2024 | Tom: vol. 6 | Numer: iss. 1

Typ artykułu

artykuł naukowy

Język publikacji

angielski

Słowa kluczowe
EN
  • leaf abnormality classification
  • Centella asiatica (Linn.) Urban
  • Convolutional Neural Network (CNN)
  • agricultural monitoring
  • plant disease detection
Streszczenie

EN Leaf abnormalities pose a significant threat to agricultural productivity, particularly in medicinal plants such as Centella asiatica (Linn.) Urban (CAU), where they can severely impact both the yield and the quality of leaf-derived substances. In this study, we focus on the early detection of such leaf diseases in CAU, a critical intervention for minimizing crop damage and ensuring plant health. We propose a novel parallel-Variable Neighborhood Strategy Adaptive Search (parallel-VaNSAS) ensemble deep learning method specifically designed for this purpose. Our approach is distinguished by a two-stage ensemble model, which combines the strengths of advanced image segmentation and Convolutional Neural Networks (CNNs) to detect leaf diseases with high accuracy and efficiency. In the first stage, we employ U-net, Mask-R-CNN, and DeepNetV3++ for the precise image segmentation of leaf abnormalities. This step is crucial for accurately identifying diseased regions, thereby facilitating a focused and effective analysis in the subsequent stage. The second stage utilizes ShuffleNetV2, SqueezeNetV2, and MobileNetV3, which are robust CNN architectures, to classify the segmented images into different categories of leaf diseases. This two-stage methodology significantly improves the quality of disease detection over traditional methods. By employing a combination of ensemble segmentation and diverse CNN models, we achieve a comprehensive and nuanced analysis of leaf diseases. Our model’s efficacy is further enhanced through the integration of four decision fusion strategies: unweighted average (UWA), differential evolution (DE), particle swarm optimization (PSO), and Variable Neighborhood Strategy Adaptive Search (VaNSAS). Through extensive evaluations of the ABL-1 and ABL-2 datasets, which include a total of 14,860 images encompassing eight types of leaf abnormalities, our model demonstrates its superiority. The ensemble segmentation method outperforms single-method approaches by 7.34%, and our heterogeneous ensemble model excels by 8.43% and 14.59% compared to the homogeneous ensemble and single models, respectively. Additionally, image augmentation contributes to a 5.37% improvement in model performance, and the VaNSAS strategy enhances solution quality significantly over other decision fusion methods. Overall, our novel parallel-VaNSAS ensemble deep learning method represents a significant advancement in the detection of leaf diseases in CAU, promising a more effective approach to maintaining crop health and productivity.

Data udostępnienia online

04.03.2024

Strony (od-do)

620 - 644

DOI

10.3390/agriengineering6010037

URL

https://doi.org/10.3390/agriengineering6010037

Typ licencji

CC BY-NC (uznanie autorstwa - użycie niekomercyjne)

Tryb otwartego dostępu

otwarte czasopismo

Wersja tekstu w otwartym dostępie

ostateczna wersja opublikowana

Data udostępnienia

04.03.2024

Czas udostępnienia publikacji w sposób otwarty

w momencie opublikowania

Pełny tekst artykułu

Pobierz plik

Poziom dostępu do pełnego tekstu

publiczny

Punktacja Ministerstwa / czasopismo

20

Impact Factor

3 [Lista 2023]

Ta strona używa plików Cookies, w celu zapamiętania uwierzytelnionej sesji użytkownika. Aby dowiedzieć się więcej przeczytaj o plikach Cookies i Polityce Prywatności.