Flächenberechnung für Wildschäden

    ACHTUNG: Mit der neuen EU Drohnenverordnung muß sich jeder Drohnen-Betreiber beim Luftfahrtbundesamt registrieren und seine Drohne mit der e-ID kennzeichnen! Ein passendes Kennzeichen bekommst Du hier im Shop. Außerdem benötigst Du eine Drohnen-Versicherung. Hier geht es zu unserem Drohnen-Versicherungsvergleich. Informationen zum neuen EU Drohnenführerschein gibt es hier.

    • Einen Vorschlag habe ich auch noch: DJI GS Pro (kostenlos).
      Hier habe ich einmal ein Beispiel erzeugt. Die einzelnen Messpunkte hab ich manuell eingetragen, sollen sich aber auch während des Fluges erfasst. Das erste Bild zeigt das ganze Feld. In den weiteren sollen die Messpunkte die Umrisse der Wildschäden anzeige. Nach Erfassung wird rechts, mit rot markiert, die jeweilige Größe in ha angezeigt. Einen Versuch wäre es vielleicht wert.
      Bilder
      • AA868580-8FF5-470C-9566-9D8AC7698393.jpeg

        198,98 kB, 1.024×768, 205 mal angesehen
      • 504B8576-E0B5-4DE9-ABC4-8F4C7C608227.jpeg

        176,63 kB, 1.024×768, 178 mal angesehen
      • 5C03E45B-32B0-4706-B951-0CADAB44D896.jpeg

        203,28 kB, 1.024×768, 161 mal angesehen
      • 8BD39952-F5BD-4C60-838B-EE0EAE6ACBDF.jpeg

        176,57 kB, 1.024×768, 159 mal angesehen
    • Das ist ja alles schön und gut, aber ihr habt genau zwei Probleme:
      Die Flächenberechnung direkt aus dem Foto funktioniert nicht, weil das Foto eine Perspektive hat.
      Und Die Flächenberechnung aus Satellitenaufnahmen funktioniert nur so gut wie ihr es schafft die Schäden frei Hand aus einem Foto auf das Satellitenbild zu übertragen. (Vermutlich noch schlechter als ersteres)

      Es gilt zuerst einmal das Foto zu entzerren, danach kann man dann darin Pixel zählen, oder mit 100 anderen Methoden die Flächen ausmessen. Die Schwierigkeit liegt darin beurteilen zu können wie man das Foto verzerren muss, um die Perspektive los zu werden.
      Die einfachste Möglichkeit die mir dazu einfällt wäre das Foto über einen Screenshot des selben Feldes aus Google Earth zu legen, und dann zu verzerren bis die beiden Deckungsgleich sind. Das funktioniert aber auch nur solange sich die Aufnahmen noch ähnlich genug sind. Wenn bspw. der Landwird nur die Felder anderes eingeteilt hat, kann es schon schwierig werden brauchbare Referenzpunkte zu finden.
      Die totsichere Lösung wäre sich vor Ort ein gleichschenkliges, rechtwinkliges Dreieck zu markieren, das man später im Foto als Referenz verwenden kann. Das ließe sich auf einem Kartoffelfeld noch sehr leicht mit drei Fähnchen und einem Maßband erledigen, aber in hohem Mais bietet sich das leider auch nicht mehr so einfach an.
    • Wenn die Aufnahme orthogonal aus dem Nadirpunkt aufgenommen ist (und nur das mach Sinn), ist bei den Kameras üblicher Fotokopter mit ihren Brennweiten die Verzerrung für den Zweck vernachlässigbar. Eine Perspektive hast Du in Nadirausrichtung nicht.
      Der Ansatz für eine einfache prozentuale Ermittlung ist tatsächlich nicht so verkehrt, das gebe sogar ich zu :) Dass die Methode nur innerhalb gewisser Größen und Anforderungen funktioniert, ist klar.

      Um es exakter zu haben, macht man eine Serie von georeferenzierter Aufnahmen und setzt diese photogrammetrisch zusammen, ggfls. mit eingemessenen Referenzpunkten =GCP, Ground Control Points (je nach Anforderungen and die Genauigkeit). Aber das war hier nicht die Anforderung. Im professionellen Bereich macht hier niemand mehr mit Maßbändern und Fähnchen herum, glaube mir :)

      Edit: Beispiel für einen GCP:

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von fingadar ()

    • gsezz schrieb:

      Das ist ja alles schön und gut, aber ihr habt genau zwei Probleme:
      Die Flächenberechnung direkt aus dem Foto funktioniert nicht, weil das Foto eine Perspektive hat.
      Und Die Flächenberechnung aus Satellitenaufnahmen funktioniert nur so gut wie ihr es schafft die Schäden frei Hand aus einem Foto auf das Satellitenbild zu übertragen. (Vermutlich noch schlechter als ersteres)
      Warum soll die Flächenberechnung durch DJI GS nicht funktionieren? Die Fotos haben keine Perspektive, so wie du es ausdrückst, die Kamera zeigt senkrecht nach unten. Anhand der GPS Daten der Messpunkte wird die Fläche ausgerechnet.
      Wieso sollten die Schäden frei Hand auf ein Satellitenfoto eingezeichnet werden? Das wäre völliger Quatsch.
    • @gsezz und @fingadar Selbstverständlich sind eure Einwände und Ausführungen richtig. Aus euren Beiträgen entnehme ich, dass ihr in dieser Materie schon fundamentale Kenntnisse habt. Aber bei der Erfassung von Wildschäden geht es nicht darum, auf den "Grashalm genau" den Schaden zu erfassen. Die Methode, die ich in meinem Beitrag vorgestellt habe, ist aber entschieden genauer als die Schätzungen von den Schadensbeauftragten, die nach Sicht und Schätzung den Schaden eben nur ungefähr festsetzen und oft zu Missstimmungen zwischen Jägern und Landwirten führen. Das Problem mit der perspektivischen Verzerrung besteht natürlich, lässt sich aber weitgehend dadurch lösen, dass die Aufnahmen durch den Kopter durch eine genau senkrecht nach unten ausgerichtete Kamera aufgenommen werden. Ein größeres Problem stellen für mich behördliche Reglementierungen dar: Für "Ottonormalflieger" gilt ja ein Höhenlimit von 100m bzw. 120m nach neuesten EU-Vorschriften. Wenn ich mich also an dieses Höhenlimit halte und die abzulichtende Fläche entsprechend groß ist, bekomme ich diese Fläche nur dann auf 1 Bild, wenn ich die Kamera entsprechend schräg stelle und damit habe ich wieder das Problem der perspektivischen Verzerrung. Abhilfe: Überfliegen der Maisfläche in nicht zu großer Höhe (wegen der höheren Auflösung) und Auslösung der Kamera in bestimmten Abständen mit entsprechender Überlappung der einzelnen Aufnahmen. Dies funktioniert aber nur mit den entsprechenden Apps (z. B. Litchi, DJI GS Pro) und anschließendem Zusammensetzen der einzelnen Aufnahmen zu einem Gesamtfoto ("Stitching"). Aber das ist schon wieder ziemlich viel Aufwand und erfordert eine entsprechende Vorbereitung und auch einen erhöhten Zeitaufwand für die Bearbeitung. Es gilt hier einfach, bei der Schadenserfassung von Maisfeldern einen Kompromiss zu finden zwischen dem notwendigen Aufwand, der Genauigkeit und letztendlich den Kosten (sofern man das nicht als Hobby und deshalb kostenlos macht). Was letzten Endes zählt, ist das Gefühl von Jägern und Landwirten, nicht von der anderen Seite über den Tisch gezogen worden zu sein. Wenn es im Schadensfall um's Zahlen geht, kann es nämlich durchaus vorkommen, das die Stimmung zwischen den beiden Seiten etwas "geladen" ist.
      Für diejenigen, die vielleicht einmal "meine Methode" (ist aber nicht wirklich auf meinem Mist gewachsen, sondern habe ich in ähnlicher Form irgendwann einmal irgendwo im Internet gefunden) ausprobieren möchten, werde ich in nächster Zeit ein Tutorial einstellen mit einer Schritt-für-Schritt-Anleitung. Ich hoffe, ich komme über die Weihnachtsfeiertage dazu.
      Ich wünsche allen frohe und vor allen Dingen coronafreie Feiertage
      Darky
    • dass ihr in dieser Materie schon fundamentale Kenntnisse habt.
      Die habe ich kein Stück. Aber ich habe als CAD-ler jede menge Erfahrung damit dass man aus Fotos, die nun mal immer eine Perspektive haben, solange sie nicht aus unendlicher Entfernung aufgenommen sind, keine technischen Zeichnungen ableiten kann. Auch dann nicht wenn der Kunde so nett ist ein Maßband ins Bild zu halten. :D
      Ich habe mir einmal für einen Landwirt einen Wildschaden angesehen. Da war die Frage aber auch nur ob irgendwo überhaupt noch etwas steht, oder ob das gesamte Feld hinüber ist. ...Es stand nichts mehr. :(

      @Günther, ich kenne diese App nicht. Für mich sehen deine Screenshots nach Satellitenaufnahmen aus, und nicht nach selbst gemachten Drohnenfotos. Kann diese App tatsächlich GPS Koordinaten in einem von der Drohne selbst gemachten Foto anzeigen? Das klingt viel zu schön um wahr zu sein.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von gsezz ()

    • @gsezz
      Bin über diese App vor einigen Wochen im App Store „gestolpert“. GS steht für GroundStation. Mein Beispiel zeigt die manuell eingesetzte Messpunkte. Ist für mich logisch, dass das nur auf einem Satellitenfoto erfolgen kann.
      Ich habs noch nicht ausprobiert, aber man soll diese Messpunkte auch im Flug setzen können. Und ich habe mir vorgestellt, man fliegt mit dem Kopter zu einem Punkt, Kamera nach unten und setzt einen Messpunkt, und der wird mit den Koordinaten des Kopters gesetzt. Bei einem Feld ist das wohl kein Problem. Bei den Wildschäden müsste man jeweils in einer eigenen Mission die Messpunkte an den Rändern gesetzt werden. Die Flächen der einzelnen Missionen wird ja angezeigt.
      Wie gesagt, ich habs nicht ausprobiert. Gibt auf YT auch Videos darüber.
    • Achso, wenn ich dich richtig verstehe, dann ist deine Idee gar nicht die Beschädigungen anhand eines Fotos auszuwerten, sondern mit dem Kopter die Konturen der Schäden abzufliegen, und deren Koordinaten zu sammeln. Das ist sicher eine Möglichkeit die recht gute Ergebnisse liefern kann. Aber bei einem Feld wie in Beitrag #17 würde das wohl auch viel Arbeit bedeuten.
    • @ Darky:
      Du sprichst mir aus der Seele!
      Klar kann man das auf die Spitze treiben und über Verzerrungen sprechen. Aber es geht nicht ums Halme zählen, sondern um eine bessere objektive Schätzung zu haben.
      In meinem Fall sprach der Landwirt von einem Schaden von 40 %, die Jäger von 20 %. Und mit dieser relativ banalen Pixelberechnung auf 2 Ebenen hat man relativ schnell ein gutes Ergebnis.
    • gsezz schrieb:

      .... Aber ich habe als CAD-ler jede menge Erfahrung damit dass man aus Fotos, die nun mal immer eine Perspektive haben, solange sie nicht aus unendlicher Entfernung aufgenommen sind, keine technischen Zeichnungen ableiten kann. Auch dann nicht wenn der Kunde so nett ist ein Maßband ins Bild zu halten. :D
      Da stehen mir dann doch die Haare zu Berge ! Du stellst das grosse Gebiet der Einzelbildentzerrung der Photogrammetrie in Frage.


      Man kann aus jedem Foto - egal ob senkrecht oder schräge Aufnahme mittels Einzelbildentzerrung eine ebene Karte machen. Voraussetzung sind dafür jedoch genug Passpunkte. Das sind Punkte die im Foto gut erkennbar sind und von denen Koordinaten und Höhe bekannt sind. (z.b. in '26 die schwarz/weisse Tafel ).


      guckst du :
      vermessung-hilbrig.de/einzelbildentzerrung.htm
      vermessungsseiten.de/ortho/photogr.htm
      unfallaufnahme.info/content/photogrammetrie/phidias/

      Gruß von CB
      und immer eine handbreit Luft unter dem Gimbal

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von cumulonimbus ()

    • Es tut mir wirklich Leid für dich, dass du meine Beiträge nicht verstanden hast. Guckst du #25, wo ich versucht habe genau das zu erklären, und wie man das als Hobbyist mit einfachen Mitteln, und wenig Aufwand erreichen könnte. (Das Bild mit einem Satellitenfoto als Referenz entzerren)

      Wenn Menschen doch nur lesen würden.... ;(

      Ansonsten wäre ich dir sehr verbunden, wenn du deine Beiträge nicht als Zitate von mir darstellen würdest!

      Dieser Beitrag wurde bereits 7 mal editiert, zuletzt von gsezz ()

    • Ich habe nicht deinen Post #25 angezweifelt, sondern das o.a. Zitat.

      Es geht auch nicht um zehntelmillimeter , die in der Küche mit Fischaugenobjektiven ermittelt werden sollen, sondern um ganz profane Flächen auf dem Feld. Da sind Quadratmeter sicherlich ausreichend.

      Der zweite Teil in deinem Post #25 stimmt mit meiner Vorstellung vollkommen überein, da ich dies schon mehrfach gemacht habe.
      Gruß von CB
      und immer eine handbreit Luft unter dem Gimbal
    • In dem Zitat ging es um meine berufliche Erfahrung, und nicht um das Feld. Ohne zu wissen um welche Arbeit es dabei geht, bist du wohl kaum in der Lage zu beurteilen auf welche Toleranzen es ankommt.

      Also sind wir uns einig dass man das perspektivische Bild vom Feld einfach nur einigermaßen entzerren muss.
      Und wir sind uns auch einig dass man anhand eines x-beliebigen Handyfotos keine Küche ausmessen kann.
      Kurz gesagt, wenn du nicht den Kontext meiner Aussagen durcheinander geworfen hättest, hätten wir uns die Diskussion sparen können.

      Lass uns das hier beenden. Die Zeile mit der Küche hatte ich schon wieder aus meinem Post gelöscht, während du geantwortet hast, weil ich den Thread nicht noch weiter OT führen wollte.
    • Gimbal auf senkrecht stellen (z.B. C1/C2 Button) sollte reichen. Daraus ergibt sich bei still stehendem Kopter von alleine eine ausreichend verzerrungsfreie Aufnahme vor dem Hintergrund der vom TE erklärten Genauigkeitsansprüche. Ja, es steht auch schonmal ein Maisfeld im Hang, auch das kann man aber ggfs. hinreichend genau über Gimalneigung Daumen*PI entzerren. Referenzpunkte anlegen dürfte einfach vom Aufwand her nicht angemessen sein.

      Außerdem dienen diese Fotos halt auch dann gleich als Beleg für die Konfliktparteien. Mit Polygonauswahl zeichnen und füllen kann man da schon viel machen ohne dass es allzu lange dauert. Irgendjemand muss diese Arbeit ja nunmal machen.
      Wenn man sich die Alternative vorstellt, zu Fuß durch so ein zerfleddertes Feld stapfen, Löcher überhaupt zu finden, und diese 'irgendwie' flächenmäßig am Ort zu erfassen...

      Absolute Zahlen könnte man mit begrenzter Genauigkeit aus Höhe und Brennweite und etwas Rechnen ermitteln, solange die Geländetopografie einfachen Annahmen für landwirtschaftliche Nutzung folgt. Aber da Verhältniszahlen reichen, kann man sich das auch schenken.

      Man kann mehrere Fotos größerer Flächen natürlich auch in GO4 oder Litchi über die Wegpunktfunktion, Pano, etc. erstellen. In GS Pro ist die automatische Erstellung von 2D Maps (Photo Map) allerdings kostenpflichtiges Extra. Ein paar hat man zum Testen allerdings frei.

      Es gibt technisch viele Möglichkeiten dafür, aber wie der TE selbst sagt, man muss den Aufwand im Blick behalten. Ein farb-maskiertes Photo des Feldes hat eine recht unmittelbare Überzeugungskraft. Wenn der TE ein iPad hat, kann er GS Pro ja mal ausprobieren, es gibt ein paar passable Tutorials im Netz und zumindest Photomaps sind nach ein bißchen Einarbeitung nicht so kompliziert oder zeitaufwendig. Ohne iPad geht allerdings nichts.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Carsten Kurz ()

    • Hab gerade bei facebook etwas gesehen, wo ich direkt an den Thread hier denken musste.
      Laut dem Beitragsersteller dort soll es entgegen der Angaben von DJI wohl auch mit der M2P und sogar mit der Air 2 gehen:

      Link zur DJI Webseite

      Vielleicht reicht ja die kostenlose Version auch für die grundlegenden Sachen, 1.500 € für die Vollversion ist natürlich übertrieben für das, was hier gewünscht war.
    • @Hungser:
      Danke für den Link! Ich hab mir das Tutorial angesehen, ist aber für den Zweck den man nur für die Wildschadenberechnung braucht zu aufwändig. Da schießt man mit Kanon auf Spatzen.
      Lt. Tutorial wird die Fernsteuerung direkt am Notebook angeschlossen. Systemvoraussetzungen sind:
      32GB RAM
      Grafikkarte: NVidia 1050ti oder höher

      Diese Anforderungen erfülle ich gerade auf meinem Stand-PC aber nicht auf meinem Notebook.
      Trotzdem danke für deinen Beitrag zu diesem Thema. :)