Innovations dans le guidage : suivi de bâche, demis-tours et cultures basses

« Nous avons donné la vue à Oz pour le suivi bâche, les demi-tours fin de rangs et la détection de cultures basses »

On vous l’annonçait il y a quelques mois, notre robot Oz a maintenant deux petites caméras en guise d’yeux ! Tel un être humain qui aurait recouvré la vue, il garde sa canne blanche qui lui sert encore un peu (le laser), mais ses deux yeux lui permettent désormais de repérer et d’analyser son environnement pour prendre des décisions tout seul : suivi de bâche, demi-tour en fin de rang, cultures basses… Oz voit tout, vous voyez ? En direct du département R&D de Naïo, Joan et Robin nous expliquent comment cela fonctionne et ce que cela change dans les champs.

Tout d’abord, expliquez-nous ce que signifie la « vision » pour le robot Oz svp…


Déjà, cela se voit : Oz a deux yeux ! Il comprend et analyse maintenant ce qu’il voit, tout comme ce qu’un humain verrait en relief, aussi appelé stéréoscopie. Cela a des applications très concrètes pour le suivi de bâches, les repères en fin de rang pour changer de rang, et la détection des cultures basses.

Concernant les demi-tours fins de rangs, nous avons appliqué des filtres rouges pour sortir cette couleur de l’image afin de permettre à Oz de voir les piquets rouges positionnés en fin de rang. Il analyse la couleur et la forme du jalon grâce à la stéréoscopie pour décider d’effectuer son demi-tour, même si des plantations ou autres obstacles se trouvent après.

Au niveau des cultures basses, nous utilisons un filtre vert : en effet, toutes les cultures sont faites de chlorophylles, en concentration différente, mais elles sont toujours vertes ! Ainsi, Oz extrait ainsi des caractéristiques et peut voir où se trouvent les adventices des cultures.

Le suivi de bâche était également un enjeu important pour Oz ; nous n’utilisons pas de filtre couleur pour la bâche, car elle peut changer de couleur selon les reflets, la luminosité, l’eau, la terre dessus…

Pour suivre les bâches, Oz regarde devant lui, et écarte sa vision pour trouver quelque chose de différent (la bâche)  et détermine un nuage de point pour tracer sa trajectoire : il se guide donc grâce à la différence entre ce qu’il y au centre et sur les côtés. Mais Oz va plus loin : il doit également suivre les bâches recouvertes de terres, salies, avec des flaques d’eau… même celles ayant déjà vécu, partiellement souillées.

Quelles étaient les problématiques rencontrées jusqu’à présent ?

Jusqu’ici, Oz n’avait pas de vision, il se guidait juste grâce à son laser, donc il ne voyait pas tout ce qui faisait moins de 10 cm de haut. Il ne pouvait donc pas différencier les cultures basses, ni détecter les aspérités. Le laser fonctionne en effet ainsi : il fait un plan et ne voit qu’en coupe à 10 cm de la surface. Le laser, ou lidar, est cependant très précis pour mesurer les distances : c’est pourquoi nous le conservons car nos clients travaillent parfois avec des piquets, de nuit,  dans les cultures touffues, et que le laser a fait ses preuves ! Les caméras et le lidar représentent donc une belle complémentarité pour nos maraîchers !

Autre nouvel usage : avant la vision, Oz ne pouvait pas faire de suivi de bâches au ras du sol : il ne les voyait pas !
Idem pour les demi-tours : nous rencontrions des problématiques de détection de la fin de rangée. Oz ne faisait pas toujours la différence entre une ornière et la culture, ni la mauvaise herbe de la culture. Le laser guidait Oz en continue tant qu’il rencontrait des éléments sur les côtés du rang. Le piquet rouge intervient alors ! Ces jallons sont de réels marqueurs de fin de rangée qui lui servent de repère visuel. Ainsi, que la végétation continue ou pas, Oz fait son demi-tour et son changement de rangée.

Les piquets rouges sont aussi utilisés pour la ré entrée : mauvaises herbes, bosses, obstacles divers, terrain en pente… ils permettent de viser entre les deux piquets pour fiabiliser la ré entrée inter-rangs. 

Dans les champs de Naio Technologie a Belberaud Toulouse, France, 01/10/2015 - Tien Tran - http://tien-tran.com Oz, dans les champs, près de Toulouse, 01/10/2015 – Crédits Tien Tran – http://tien-tran.com

Du coup, vous avez développé l’odométrie visuelle sur Oz… dîtes-nous en plus !

Aujourd’hui, sur un terrain respectant le cahier des charges, sans difficultés, l’odométrie mécanique (aux tours de roues) donne déjà d’excellents résultats. Mais nous avons choisi de travailler sur l’odométrie visuelle pour fiabiliser les demi tours dans des situations extrêmes, hors cahier des charges (qui peut le plus peut le moins !).

Les caméras permettent d’évaluer la distance parcourue sans être affectée par les patinages de roues : dans la phase de demi-tour, si Oz glisse en terrain en pente, ou patine sur sol très gras, l’odométrie mécanique risque de fausser les mesures pour la ré entrée notamment. Avec l’odométrie visuelle, Oz prend des clichés successifs pour savoir de quelle distance exactement il  a avancé.

A quels besoin des maraîchers utilisateurs de Oz avez-vous répondu ?

Nos clients ont un cahier des charges pour faire travailler Oz : ils rentrent les données de leur exploitation et le robot fait le travail. Mais en cas de terrains difficiles ou de problèmes météorologiques, ils devaient être sur le dos de Oz pour lui expliquer tout cela !

Maintenant, une fois son rang terminé et repéré grâce aux piquets rouges, Oz effectue son demi-tour en correspondance aux données entrées par l’utilisateur : cela fiabilise donc les cas extrêmes et diminue l’intensité de préparation de la part du maraîcher.

Cela ne remplace pas un bon suivi de cahier des charges, la bonne application chez le maraîcher : garantie d’un parfait travail du robot ! Mais vient pallier à des problématiques météo, manque de temps du maraîcher, aide le robot à fiabiliser ses demi tours. Ce serait dommage de rater un demi tour pour un détail !

La vision d’Oz lui permet aussi de passer à des endroits où il ne le pouvait pas, et d’agir dès le début des cultures. Cela élargit les possibilités de travail du robot ! Et ce n’est pas fini !

Naio Technologies - Corporate a Bureau Naio Technologies Toulouse, France, 28/09/2015 - Tien Tran - http://tien-tran.com

Quels sont les retours jusqu’à présent, et éventuellement d’autres pistes d’amélioration ?

Nous travaillons à présent sur un robot guidé par caméra pour la vigne, pour repérer les ceps, les pieds, les reliefs, et sa forme. Avec la complexité de la plante qu’est la vigne, c’est sa position, son épaisseur et son relief qui permettent un traitement mécanique automatisé.

La vue pourrait même être rendue par caméra multi spectrale pour mesurer le niveau de stress hydrique de certaines plantes : Oz ou ses descendants pourraient arrOzer les plantes qui ont soif, en la géolocalisant voire en passant directement sur le rang !

Merci Robin et Joan, on vous laisse travailler pour donner 10/10 à chaque œil de Oz !