Intelligente Augen in der Luft
Die Digitalisierung in der Landwirtschaft soll unter anderem den Einsatz von Pflanzenschutzmitteln reduzieren – und das bei gleichbleibenden Erträgen und geringen Produktionskosten.
Im sogenannten EWIS-Projekt am Technologie- und Förderzentrum in Straubing (Bayern) sollen zusammen mit der Hochschule Weihenstephan-Triesdorf und der Landesanstalt für Landwirtschaft innovative Ansätze der smarten Digitalisierung zur automatischen Beikrauterkennung in Sorghum mittels Fernerkundung auf landwirtschaftlichen Nutzflächen untersucht und entwickelt werden. Mit modernsten Verfahren der künstlichen Intelligenz, kurz KI, und des maschinellen Lernens (z. B. künstliche neuronale Netze) sollen drohnenbasierte Bildaufnahmen der Anbauflächen automatisch analysiert werden.
Ziel dieses Projekts ist es, nicht nur Kl-Verfahren zu untersuchen, sondern auch neuartige Methoden zu entwickeln, welche mit möglichst hoher Genauigkeit Beikraut- und Ungrasflächen im Bestand erkennen und lokalisieren können. Das Erkennen von Beikraut ist eine Grundvoraussetzung für eine gezieltere und ressourcenschonendere Beikrautregulierung und kann somit zur Pflanzenschutzmittelreduktion beitragen.
Schon oft im Einsatz
Drohnen sind eine der leistungsfähigsten smarten Lösungen des 21. Jahrhunderts in der Landwirtschaft. Sie werden bereits in einer Vielzahl von Prozessen eingesetzt, zum Beispiel zum Aufspüren von Rehkitzen vor der Mahd, der Ermittlung des Nährstoffgehalts (meist Stickstoff) von Kulturpflanzen, zur Überwachung der Gesundheit des Pflanzenbestandes sowie zur Erstellung von Applikationskarten für Düngung und gezieltem Einsatz von PflanzenschutzmittelnDer Schwerpunkt von EWIS liegt in der Weiterentwicklung moderner KI-Verfahren zur automatischen Erkennung von Unkraut auf Sorghumflächen. Dabei nehmen Drohnen Bilder von Sorghumbeständen auf. Es werden sowohl Versuchsflächen des TFZ, als auch extra für EWIS angelegte Sorghumbestände beflogen. Die Aufnahmen dokumentieren hochauflösend Sorghum und den Beikrautbesatz auf der Fläche. Wichtig ist eine vielfältige Datenbasis, das heißt verschiedene Standorte mit einer möglichst breiten Unkrautflora, bei unterschiedlichen Wetterbedingungen, mit variierenden Kameraeinstellungen und Flughöhen.
Geflogen wird kurz nach der Keimung, also dann, wenn Sorghum und die Beikräuter noch sehr klein sind. Relevant sind die Aufnahmen in diesem sehr engen Zeitfenster, da dies auch der übliche Zeitpunkt für die Herbizidmaßnahmen ist. Die Befliegungen ersetzen also die manuelle Betrachtung des Bestandes durch den Landwirt.
Bei der Befliegung treten allerdings Störfaktoren und Probleme auf. Der durch Drohnenpropeller verursachte Wind erzeugt beispielsweise Bewegungsunschärfe, ähnlich wie wenn bei hoher Fluggeschwindigkeit fotografiert wird. Daneben hat die Flughöhe den größten Einfluss auf die Bildqualität, denn mit zunehmender Höhe reduziert sich die Bildauflösung. Beim für das Projekt optimierten „Hover- und Capture-Modus“ fotografiert die Drohne nicht während des Fluges, sondern schwebt in festgelegter Höhe über jedem Aufnahmepunkt und löst erst dann aus, bevor sie automatisch zum nächsten Punkt fliegt.
Zusätzlich entfernen KI-Methoden eventuell auftretende Unschärfe aus den Bildern. Mit Hilfe einer spezielle Flug-App zur Wegpunkteinstellung wurde die Flughöhe, die bisher auf minimal fünf Meter begrenzt war, optimiert und ist nun bei drei Metern möglich. Diese Flugmethodik führt zur bislang besten Bildqualität und wird im folgenden Projektverlauf dauerhaft eingesetzt.
Training ist alles
Um ein KI-Modell zur Erkennung von Beikräutern in Bildern zu trainieren, muss im ersten Schritt ein Goldstandard geschaffen werden. Dazu wird in den Drohnenbildern manuell und pixelgenau markiert, wo sich Beikraut und Sorghum befinden. Jedes Pixel im Bild wird dabei einer der drei Klassen „Sorghum“ „Beikraut“ und „Acker“ zugeordnet.
Dieser Prozess der Annotation ist einer der zeitaufwendigsten, aber auch einer der entscheidenden Schritte im gesamten Projekt. Bei der Annotation ist es wichtig, möglichst genau und fehlerfrei zu arbeiten. Fehler, die während dieses Prozesses nicht erkannt werden, könnten sich negativ auf die Genauigkeit der Vorhersagemodelle auswirken.
In diesem Projekt werden Methoden des überwachten maschinellen Lernens verwendet, um Beikräuter und Nutzpflanzen in einem Bild zu erkennen. Diese Teildisziplin der KI beschäftigt sich mit dem Lernen anhand annotierter Daten. Für unsere Zwecke werden sogenannte künstliche tiefe neuronale Netze verwendet. Diese Verfahren gehören zu den vielversprechendsten Methoden im Bereich des maschinellen Lernens und der rechnergestützten Bildanalyse, da sie lokale Merkmale in Bildern selbstständig lernen und eine Selektion per Hand ersetzen.
Aber was genau ist „überwachtes Lernen“? Das lässt sich am einfachsten über eine Analogie erklären: Beispielsweise möchte man einem Kind beibringen, auf Bildern Hunde von Katzen zu unterscheiden. Hierzu werden vereinfacht gesagt dem Kind nacheinander verschiedene Bilder von Hunden und Katzen gezeigt und dem Kind jedes Mal mitgeteilt, welches Tier auf welchem Bild zu sehen ist. Zur Lernkontrolle muss es später dann selbst entscheiden, was auf den Bildern zu sehen ist. Am Anfang wird das Kind mit Sicherheit noch Fehler machen. Indem man dem Kind aber während der Lernphase hilft, Fehler zu korrigieren, lernt es nach und nach die beiden Tiere besser zu unterscheiden. In der Praxis sind künstliche neuronale Netze jedoch nicht so schlau wie Kinder.
Es braucht eine enorme Menge an Beispielen, damit eine KI die Merkmale unterschiedlicher Klassen lernen kann. Zudem besteht die Gefahr, dass das Modell nur auswendig lernt und bei neuen Daten, welche z. B. leicht anders aussehende Katzen zeigen, versagen. Ziel sollte es sein, ein Modell zu trainieren, das möglichst genau auf unbekannten Bildern Vorhersagen treffen kann.
Positive Ergebnisse
In einem ersten Schritt wurde eine angepasste Version der U-Net Architektur als Referenzmodell implementiert und auf einem Teil der Daten (Trainingsdaten) trainiert, um Merkmale in den Bildern zu lernen, Unkraut von Sorghum und Acker zu unterscheiden. Die U-Net Architektur ist ein künstliches faltbares neuronales Netz, das aus einem „Encoder“ und einem „Decoder“ besteht. Der „Encoder“ komprimiert die Bilder, um die Dimensionalität der Bilder zu reduzieren und somit die wichtigsten Merkmale zum Unterscheiden von Sorghum, Unkraut und Acker in den Bildern zu lernen.
Der „Decoder“ verwendet die gelernte Merkmalskarte des ersten Teils und skaliert diese wieder schrittweise hoch, um somit eine Vorhersagemaske für das Bild zu generieren. Diese prognostiziert, wo im Bild sich Unkraut, Sorghum und Acker befinden. Auf unbekannten Testdaten, welche in keiner Phase des Lernprozesses verwendet wurden, zeigen die Modelle bereits gute Ergebnisse mit einer Pixelgenauigkeit von zirca 80 %. Analysen zeigen, dass der größte Fehleranteil solchen Beikrautarten zuzuschreiben ist, die nur selten auftauchen.
Wie beschrieben, können unterschiedliche Wetterbedingungen, wie Wind, zu unscharfen Bildern führen. Damit diese Bilder trotzdem verwertet werden können, wird untersucht, wie mit Hilfe moderner KI-Verfahren die Bewegungsunschärfe künstlich herausgerechnet werden kann. Erste vorläufige KI-Modelle zeigen bereits vielversprechende Ergebnisse und könnten dazu dienen, Unkräuter und Sorghum in verschwommenen Aufnahmen besser zu erkennen.
Demnächst wird das Projekt die Moving-Fields-Anlage der Landesanstalt für Landwirtschaft nutzen. Diese Anlage ermöglicht, Pflanzen-Kleinstbestände in einer geschützten Umgebung eines Gewächshauses wachsen zu lassen und den zeitlichen Verlauf des Wachstums mittels Bildaufnahmen automatisiert zu erfassen. Dort können verschiedene Arten von Beikraut und Sorghum gezielt angebaut und in hoher Qualität fotografiert werden. Diese Daten dienen als weitere Quelle für das Training und die Evaluation der Künstliche-Intelligenz-Modelle.
✔ Bereits Mittwochnachmittag alle Heftinhalte nutzen
✔ Familienzugang für bis zu drei Nutzer gleichzeitig
✔ Artikel merken und später lesen
✔ Zusätzlich exklusive Videos, Podcasts, Checklisten und vieles mehr!