Sensorgröße?

    ACHTUNG: Mit der neuen EU Drohnenverordnung muß sich jeder Drohnen-Betreiber beim Luftfahrtbundesamt registrieren und seine Drohne mit der e-ID kennzeichnen! Ein passendes Kennzeichen bekommst Du hier im Shop. Außerdem benötigst Du eine Drohnen-Versicherung. Hier geht es zu unserem Drohnen-Versicherungsvergleich. Informationen zum neuen EU Drohnenführerschein gibt es hier.

    • RC-Role schrieb:

      Das wäre aber zu groß fürs Mini 3 Pro Kameragehäuse ;) .Der 1/1.3 Sensor hat 9.98 x 7.5mm, also eine Diagonale von 12.48mm.
      Stimmt. Hier ist es gut erklärt:
      pixolum.com/blog/fotografie/sensorgroesse#18243_Sensor

      "Stattdessen ist es die Länge des Aussendurchmessers einer Röhre, die zur Erzeugung eines Bildes benötigt wird, wenn das nutzbare Bild zwei Drittel des Kreises einnimmt."
    • trallala schrieb:

      Wichtig ist, dass es sich um Vollformatsensoren handelt.
      Wie ist das gemeint? Den Durchmesser des eingesetzten Bildobjektivs nutzt heute jeder Sensor aus. In einer Drohne wird kein Platz verschenkt.

      Vollformat bedeutet in der Fotografie heute die Größe des Kleinbildformats. Ein Sensor der etwa so groß ist wie ein Kleinbildfilm wird Vollfomatsensor genannt. In einer kleinen Consumerdrohne würde ein Sensor dieser Größe aber nicht nur den Platz in jedem Gimal sprengen. Noch wichtiger ist, dass ein großer Sensor auch eine Optik benötigt die ein entsprechend großes Bild darstellen kann. Und so eine Optik ist groß und schwer, weshalb es selbst in der Mavic Pro Serie keine Vollformatsensoren gibt und wohl auch geben wird.

      Sind die Sensoren aber kleiner, fangen sie weniger Licht auf und differenzieren eingefangenes Licht schlechter vom Rauschen. Wie viel Licht ein Sensor einer bestimmten Größe (ceteris paribus) im Verhältnis zu einem Sensor mit einer anderen Größe einfängt, sieht man aber nicht an der Diagonalen, sondern an der Fläche des Sensors.

      Deshalb sind die Angaben zur Diagonalen auch irreführend und werden auch ohnehin nur bis 1 Zoll-Sensoren verwendet. Hinzu kommt, dass die in Zoll angegebene Zollgröße wie 1/1,3" noch nicht einmal direkt die Sensodiagonale wiedergibt, aus den hier schon genannten Gründen. Deshalb ist die Diskussion über die Nenngröße von Sensoren auch irrelevant. In dem oben von mir verlinkten Beitrag hat Skyscope die Flächen der beiden von Threadersteller genannten Sensoren angegeben. Das ist relevant, wenn man auf die Bildqualität schleißen will (wobei zu berücksichtigen wäre, dass die Größe hier nur ein Faktor ist).
    • Nuwanda schrieb:

      Wie viel Licht ein Sensor einer bestimmten Größe (ceteris paribus) im Verhältnis zu einem Sensor mit einer anderen Größe einfängt, sieht man aber nicht an der Diagonalen, sondern an der Fläche des Sensors.
      Nicht ganz.
      Nicht die Fläche des Sensors ist dafür relevant, sondern die Fläche der Sensel (Sensor-"Pixel"). Lesestoff.

      Beispiel:
      Bei einem 1/1.3" Sensor mit 48 MP haben die Sensel nur etwa 60% der Fläche von denen eines 1/2.3" Sensors mit 12 MP.
      Und die Sensel eines 1" Sensor der Air 2S oder Mavic 2 Pro sind über 4 x größer als die dieses 1/1.3" Sensors.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von skyscope ()

    • skyscope schrieb:

      Nicht ganz.Nicht die Fläche des Sensors ist dafür relevant, sondern die Fläche der Sensel (Sensor-"Pixel").
      Ob es auf die Pixel oder die Sensorgröße ankommt ist ein altes und schwieriges Thema. Wir hatten es ja schon das ein oder andere mal dazu. :) Für das Rauschen eines Pixels, kommt es natürlich auf die Pixelfläche an, aber ob mehr Pixel auf gleicher Fläche zu einem insgesamt verrauschteren Ergebnis führen ist damit noch nicht gesagt. Und wenn dem nicht so ist, käme es wieder alleine auf die Sensorfläche an.

      Hier ist die Argumentation, wonach es nur auf die Sensorfläche ankommt, technisch ganz schön dargelegt.
      dpreview.com/articles/53659204…d-sensor-sizes-on-noise/2
    • Nuwanda schrieb:

      Hier ist die Argumentation, wonach es nur auf die Sensorfläche ankommt, technisch ganz schön dargelegt.
      Sei mir nicht bös, aber das lese ich mir mit dieser Massgabe erst gar nicht durch.

      Erkläre mir oder dir selbst doch mal folgendes:
      Warum ist denn die Belichtung und der Noisefloor 1:1 der gleiche, wenn ich (oder du oder wer auch immer) mit einer Vollformat-Kamera einmal mit mit gesamter Sensorfläche filme, und mit derselben Kamera noch mal im Super35 Modus, also nur mit Auslesung einer APS-C-ähnlichen Sensorfläche, aber logischerweise mit identischer Sensel-Größe?
      Das gleiche lässt sich über alle gängigen Filmkameras fragen, bspw. alle REDs oder ARRIs, die höhere Frameraten zulassen, je weniger Sensorfläche genutzt wird. Sensel bleiben aber natürlich die gleichen, ebenso wie der Noise Floor.

      Nach Deiner Annahme würde auch die Dynamic Range allein von der Sensorgröße oder von der genutzten Sensorfläche abhängen, denn sie wird letztlich direkt vom Signal/Rauschverhältnis und von diesbezüglich noch nutzbaren Blendenstufen in den Schatten bestimmt. Was bekanntlich ebenfalls nicht der Fall ist.

      Insofern....


      Nuwanda schrieb:

      Für das Rauschen eines Pixels, kommt es natürlich auf die Pixelfläche an, aber ob mehr Pixel auf gleicher Fläche zu einem insgesamt verrauschteren Ergebnis führen ist damit noch nicht gesagt.
      Das ist paradox. Wenn du mehr Pixel auf die gleiche Fläche packst, werden die einzelnen Pixel naturgemäß kleiner. Und selbstverständlich wirkt sich das insgesamt auch auf das Ergebnis aus, bei gleichen sonstigen Parametern.

      Dieser Beitrag wurde bereits 7 mal editiert, zuletzt von skyscope ()

    • skyscope schrieb:

      Nach Deiner Annahme würde auch die Dynamic Range allein von der Sensorgröße oder von der genutzten Sensorfläche abhängen, denn sie wird letztlich direkt vom Signal/Rauschverhältnis und von diesbezüglich noch nutzbaren Blendenstufen in den Schatten bestimmt.
      (...)
      Wenn du mehr Pixel auf die gleiche Fläche packst, werden die einzelnen Pixel naturgemäß kleiner. Und selbstverständlich wirkt sich das insgesamt auch auf das Ergebnis aus, bei gleichen sonstigen Parametern.
      Ja, es ist völlig kontraintuitiv. Ich habe das früher auch so gesehen, dass mehr Pixel auf einem Sensorchip das Rauschverhalten des Sensors verschlechtern und daher zu viele Pixel auf einem Sensor nicht vorteilhaft sind. Jeder Sensel ist ja dann kleiner und fängt weniger Licht, der Rauschanteil steigt. Zumindest letzteres ist auch richtig, aber es gibt auch gute technische Gründe, das Rauschverhalten (und die Dynamik eines Sensors) eher an der Sensorfläche und weniger an der Senselfläche festzumachen. Es geht dabei natürlich immer um den gleichen Bildauschnitt, der von großen/kleinen Sensoren/Sensels eingefangen wird. Ich habe viel von Deinem breiten Wissen hier gelernt @skyscope, vielleicht kann ich Dich hier ja in diesem Punkt einmal mitnehmen.

      Vorweg: Natürlich rauschen Bildsensoren aus ganz vielen verschiedenen Gründen. Meinem heutigen Verständnis nach, entsteht Bildrauschen auf Kamerasensoren aber vor allem als sog. Schrotrauschen (stochastisches Rauschen), Ausleserauschen (nicht exakte Digitalisierung der Ladungen) und Wärmerauschen (Elektronen werden als Signal gemessen, stammen aber von der Wärme des Sensors). Wärmerauschen können wir zumindest für Fotos mit kurzen Verschlusszeiten ignorieren. Ausleserauschen war mal ein sehr wichtiger Punkt, ist aber auf CMOS Sensoren (im Unterschied zu CCD) heute vergleichsweise gering. D.h. das Rauschen tritt heute ganz überwiegend als Schrotrauschen auf.

      Nun ist das Schrotrauschen poisonverteilt, was uns sagt, dass es sich wie Regentropfen verhält, von denen mal mehr und mal weniger in einem kurzen Moment in einen Topf fallen. Das ganze Argument dafür, dass es eigentlich nur um die Sensorfläche geht, lässt sich hier schon an diesem Vergleich ersehen: Denn Schrotrauschen tritt immer in Höhe der Quadratwurzel zu einem Messwert auf. Das Signal, also die Elektronen die ein Sensor messen kann, stehen in einem proportionalen Verhältnis zu dessen Größe. Oder verglichen mit dem Regentropfen: Ein doppelt so großer Topf (bzw. ein Topf mit doppelt so großer Öffnung) fängt im Schnitt doppelt so viele Tropfen. Und wenn ich statt eines Topfe mit doppelter Größe zwei Töpfe nehme, dann ändert das nichts an der erwartbaren Wassermenge und es ändert auch nicht der durchschnittlichen Abweichung, was das Äquivalent zum Rauschanteil eines Sensors ist.

      Damit sich das auf einem Bildsensor intuitiver vorstellen lässt, machen wir ein Beispiel: Nehmen wir vier quadratisch angeordnete Sensel/Pixel die zur einfacheren Vorstellung den gleichen Helligkeitswert messen sollen (der wahre Signalwert, den wir haben wollen ist also gleich). Nun wird auf jedem Pixel aber der Wert durch das Rauschen beeinflusst, d.h. stellen wir uns vor auf jedem der vier Sensel/Pixel weicht der Wert um eine Zahl zwischen -10 und +10 Elektronen vom gesuchten Signalwert ab. Die gemessenen Helligkeitssignalwerte sind dadurch nicht gleich. Sind alle Abweichungen zwischen -10 und +10 gleich wahrscheinlich, dann würden alle Messwerte im Schnitt um 5,8 Elektronen vom gesuchten Helligkeitswert abweichen (Standardabweichung). Das ist das Rauschen. Kleine Sensels führen zu einem kleinen Signalwert und schlechterem Verhältnis zum Rauschwert und somit zu niedriger Dynamik des Sensors.

      Was passiert aber nun, wenn ich die Helligkeitswerte der vier Pixel addiere? Dann gleichen sich zufällige hohe Rauschwerte auf einzelnen Pixeln mit zufälligen niedrigen Rauschwerten eher aus. Der Durchschnitt aus endlos vielen Zufallszahlen zwischen -10 und +10 ist 0. Das heißt das Rauschen reduziert sich durch die Addition der Signalwerte. Addiere ich zwei Signalmesswerte, reduziert sich die Standardabweichung des Rauschens um die Quadratwurzel aus 2 (1,41). Aus dem o.g. Rauchwert von 5,8 wird eine 5,8/1,41=4,1. Bei Vier Pixeln die ich addiere sind es 5,8/1,41/1,41=2,9.

      Sagen wir, wir hätten einen Vollformatsensor mit 12 Megapixeln und den ansonsten gleichen Vollformatsensor mit 48 Megapixeln. Dann bedeutet das, dass wenn ich die 48 Megapixel auf 12 Megapixel per Software herunterrechne, das entstehende Bild nicht mehr rauscht, wie wenn es direkt mit dem 12 Megapixel Sensor aufgenommen worden wäre. Und dann spielen die kleineren Pixel/Sensels eben keine Rolle. Das Rauschen wird durch die Sensorfläche bestimmt.

      Mir ist bewusst, dass das nicht das letzte Wort ist. Es gibt noch Effekte, die hier nicht berücksichtigt wurden und die - zumidest meinem bisherigen technischen Verständnis nach - besonders bei kleineren Sensoren ins Gewicht fallen können. Aber es verdeutlicht vielleicht das Argument, warum es mehr auf die Sensorfläche (die tatsächlich genutzt wird, deshalb vor allem auch bei Fotos) ankommt und weniger auf die Senselfläche.

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von Nuwanda ()

    • RC-Role schrieb:

      Dann mess mal die Diagonale deiner Mini 3 Kamera und erklär mir, wie ein 1,95cm Sensor da rein passen soll.
      die Kamera ist außen 2cm breit und 1,5cm hoch. Nach Pythagoras sind das 2,5 cm Diagonale außen. Warum soll da innen kein 1,95 cm Sensor reipassen?

      tokon schrieb:

      Wenn du Zoll in cm umrechnest kommt zwar das raus, trifft aber für Sensorgrößen nicht zu. Siehe Beitrag #9
      Warum soll das für Sensorgrößen nicht zutreffen? im Link von #9 ist kein 1/1,32 Sensor beschrieben.