Der zweite Ernteroboter-Prototyp des Schweizer Start-ups Floating Robotics war im vergangenen Herbst deutlich präziser und schneller zwischen den Tomatenreihen unterwegs als im Jahr zuvor.

Laut seinem Erbauer Salman Faraji soll das Gerät künftig dreieinhalb Arbeitskräfte ersetzen, teilt der Landwirtschaftliche Informationsdienst (LID) mit. Viele Schweizer Gemüsegärtnerinnen und Gärtner kämpfen selbst mitten in der Saison mit großen Personalfluktuationen. Das bedeutet: Am Morgen fehlen im Gewächshaus plötzlich Leute für die Tomatenernte und andere müssen Überstunden leisten. Maschinen sind zuverlässiger – wenn sie denn funktionieren. Genau daran arbeitet Salman Faraji von Floating Robotics, einem aus einem ETH Spin-off herausgegangenen Start-up aus Zürich, das mit der Entwicklung eines Ernteroboters beschäftigt ist.

Wichtige Erkenntnisse vom ersten Prototypen

2022 ließ der Maschineningenieur einen ersten Prototypen mit einem Roboterarm in zwei Gewächshäusern nach Cherry-Tomaten greifen. Der Roboter bestand primär aus Kameras zur Erkennung der Tomatenrispen, der Software und einem Roboterarm. Technisch funktionierten das Ernten und Entlauben bereits ziemlich gut, doch es fehlte noch an der Präzision und an Geschwindigkeit. Das hinterließ aber höchstens in den beteiligten Gewächshausbetrieben einen etwas ernüchternden ersten Eindruck. Salman Faraji hingegen zog wertvolle Erkenntnisse aus den ersten Versuchen und machte sich zusammen mit seinem technischen Partner Mohsen Moosavi in den folgenden Monaten an die Arbeit, und optimierte die ganze Maschinerie.

Schnellerer Greifarm und bessere Kamera

Im September 2023 war der neue Prototyp fertig: Ein neuer Roboterarm ist nun fix montiert auf einem umgebauten Erntewagen, die Kameras wurden erweitert sowie neu eine Verpackungseinheit mit separatem Abladewagen konstruiert. Der neue Greifarm mit den Messern arbeite nun vier Mal schneller als noch im letzten Jahr, sagt Salman Faraji.Der Fokus bei den diesjährigen Versuchen sei aber auf die Präzision gelegt. „Die größte Herausforderung liegt darin, dass die Kameras die Fruchtstiele der Tomatenrispen zuverlässig erkennen und den Roboterarm mit der Schere und dem Greifer an die richtige Stelle führen.“ Hier geht es vor allem um Deep Learning: Die Software wird mit Tausenden von Bildern – in diesem Fall von Tomatenpflanzen – gefüttert und damit ein Algorithmus erstellt, mit dessen Hilfe der Roboter schließlich die richtigen Entscheide fällen kann. Die neue Kameratechnologie könne nun 90 % der Rispen richtig detektieren, sagt der Robotik-Experte. Im Vergleich zum ersten Prototyp würden nun auch Rispen besser erkannt, die hintereinander wachsen.

Marktstart für 2025 geplant

Wie im letzten Jahr stellt der Gemüsebaubetrieb Beerstecher AG sein Gewächshaus in Hinwil für die Tests zur Verfügung. Salman Farajis Ansprechpartnerin ist dort Gewächshausleiterin Bianca Curcio. „Wenn wir neue Zukunftslösungen wollen, dann müssen wir solche Projekte auch unterstützen“, erklärt sie das Engagement. Sie ist überzeugt, dass diese Art der Automatisierung kommen wird. Es sei deshalb für die Firma interessant, die Entwicklung des Ernteroboters vor Ort verfolgen und diese so auch etwas steuern zu können. Bei den Versuchen im Herbst 2023 stellt sie große Verbesserungen im Vergleich zu 2022 fest. „Der Roboter ist präziser und schneller geworden.“ Sie sei sicher, dass Salman Faraji weitere wertvolle Erkenntnisse gewinnen werde. Auf deren Umsetzungen im nächsten Jahr ist sie bereits gespannt. Salman Faraji wird den Roboter in den nächsten Monaten weiterentwickeln, wozu auch die Nachtarbeit sowie das automatische Wechseln der Reihen gehört. Sein Ziel ist es, dass ein Pflückroboter künftig 1,5 ha Gewächshausfläche abdeckt und dreieinhalb Arbeitskräfte ersetzt. Zurzeit ist er noch auf der Suche nach Investorengeldern. Doch das Interesse aus der ganzen Welt sorgt bei ihm für viel Zuversicht. Die Vermarktung der ersten Geräte ist für 2025 geplant.

Der Marktstart für den Ernteroboter soll 2025 erfolgen

Der Marktstart für den Ernteroboter soll 2025 erfolgen.

Image: LID