Publication Cover
Canadian Journal of Remote Sensing
Journal canadien de télédétection
Volume 50, 2024 - Issue 1
248
Views
0
CrossRef citations to date
0
Altmetric
Research Article

See as a Bee: UV Sensor for Aerial Strawberry Crop Monitoring

Voir comme une abeille: Capteur UV pour la surveillance aérienne des récoltes de fraises

, ORCID Icon & ORCID Icon
Article: 2332179 | Received 29 May 2023, Accepted 13 Mar 2024, Published online: 14 Apr 2024
 

Abstract

Ultraviolet (UV)-reflectance is an essential signal of many plant species, which use wavelength-selective pigments in floral reproductive structures to determine the color of flowers and how they appear to their aerial pollinators, primarily bees. This paper presents a pollinator-inspired remote-sensing system incorporating UV reflectance into a flower detector for strawberry crops. We designed a compact, cost-effective UV-sensitive camera for aerial remote sensing over crop rows. Our camera and a deep-learning algorithm comprise our Nature-Inspired Detector (NID) system. We trained YOLOv5 and Faster R-CNN on our dataset of strawberry images incorporating the UV spectrum (300–400 nm). Our results showed that NID-based YOLO V5 outperformed NID-based Faster R-CNN in training time (0.3 vs. 4.5–5.5 hours) and mean Average Precision—mAP (0.951 vs. 0.934). We also present the field-test of our NID-based YOLOv5 system on a drone platform to validate its ability to detect strawberry flowers.

RÉSUMÉ

La réflectance ultraviolette (UV) est un signal essentiel de nombreuses espèces végétales qui utilisent des pigments sélectifs en longueur d’onde dans les structures reproductives florales pour déterminer la couleur des fleurs et leur apparence pour leurs pollinisateurs aériens, principalement les abeilles. Cet article présente un système de télédétection inspiré des pollinisateurs incorporant la réflectance UV dans un détecteur de fleurs pour les cultures de fraises. Nous avons conçu une caméra sensible aux UV compacte et économique pour la télédétection aérienne sur les rangées de cultures. Notre caméra et un algorithme d’apprentissage profond constituent notre système de détection inspiré de la nature (NID). Nous avons entraîné YOLOv5 et Faster R-CNN sur notre ensemble de données d’images de fraises incorporant le specter UV (300–400 nm). Nos résultats ont montré que YOLOv5 pour notre NID surpassait Faster R-CNN en temps d’entraînement (0,3 contre 4,5–5,5 heures) et mAP (0,951 contre 0,934). Nous présentons également une validation sur le terrain de notre système YOLOv5 avec notre NID sur une plateforme aérienne pour valider sa capacité à détecter les fleurs de fraisier.

Acknowledgments

We must thank Spiri Robotics for lending us a platform to conduct our field deployment. Corentin Boucher and Ryan Brown were also essential to the success of prototype adaptation and field deployment. We also thank Pr. Marcel Babin and his team at Takuvik in the University of Laval, Canada, for lending us their spectrophotometer to characterize our sensor.

Disclosure statement

No conflict of interest was reported by the author(s).

Additional information

Funding

NSERC funded this research through the UTILI CREATE program.