Hallo Nachbrenner,
dein Versuch, den werten Kollegen in Schutz zu nehmen in allen Ehren, nur ....
Ich weiss nicht, ob du dich mal etwas intensiver auseinandergesetzt hast mit den durch ETSI 1.8.1 erzwungenen technischen Änderungen für unsere RC-Systeme, Stichworte LBT und M(edium)U(tilisation)-Faktor, ich jedenfalls habe das getan, das nur am Rande.
Bei einem Fachmann, der alle möglichen Funksysteme im 2.4 GHz-Band in einen Topf schmeisst und dabei undifferenziert behauptet, dass ja alle miteinander vergleichbare Anforderungen haben, da sträuben sich bei mir die Nackenhaare. Der weiterhin zwar als Vorteil die Verbesserung der nutzbaren Übertragungskapazität richtigerweise herausstreicht (also es können mehr Kollegen gleichzeitig rummachen), aber eisern sich weigert die Technik in verständlicher Form beim Namen zu nennen, die damit verbunden ist. Die verbesserte Nutzung der Übertragungskapazität nach neuer Norm wird nämlich dadurch erreicht, dass jeder Transmitter zeitbezogen effektiv weniger im Sendemodus aktiv ist (dies bei den üblichen max. zulässigen 100 mW Sendeleistung) im Vergleich zum selben Sender, der nicht nach einem der vorgeschriebenen Verfahren dieser Norm betrieben wurde oder wird. Das wiederum bedeutet, dass dadurch pro Zeiteinheit weniger Datenpakete vom Sender an den Empfänger geschickt werden. Das ist nicht nur theoretisch so, sondern das ist auch messbar so. Der Kollege verschweigt das nicht nur ganz gezielt seiner geneigten Leserschaft, sondern er streitet das auch noch frechweg ab und merkt offenbar garnicht, dass er dabei ein Eigentor schiesst.
Die logischerweise resultierende Frage aus der technischen Änderung ist, hat die Reduzierung von gesendeten Datenpaketen eine Auswirkung auf den Betrieb und wenn ja, welche ist das. Nun ist es leider nicht so, dass jedes vom Sender an den Empfänger gesendete Datenpaket auch verwertbar dort ankommt, das kann die unterschiedlichsten Ursachen haben, ist aber zunächst irrelevant. Entscheidend aber ist, dass jeder Empfänger software-mässig darauf vorbereitet ist, das nicht verwertbare Datenpaket ignoriert und auf das nächste verwertbare Datenpaket wartet. In der Software des Empfängers hat der Hersteller diesbezüglich ein Kriterium hinterlegt, welches bei nicht-Erfüllung dann Failsafe auslöst. Jetzt kannst du dir vielleicht vorstellen, dass ein umherfliegendes Objekt nicht allzu lange auf eine verwertbare Anweisung vom Sender warten kann, dabei ist es ganz einfach so, dass je höher die Sendefrequenz von Datenpaketen ist (also mehr pro Zeiteinheit), desto höher ist auch die Wahrscheinlichkeit, dass noch rechtzeitig genug ein verwertbares Datenpaket beim Empfänger ankommt, damit Failsafe vermieden wird und alles unter Kontrolle bleibt. Umgekehrt bedeutet es aber auch, dass, wenn die Anzahl von gesendeten Datenpaketen pro Zeiteinheit reduziert wird, dies tendenziell das Failsaferisiko erhöht. Dies kann dann durchaus in kritischen Empfangssituationen früher zu einem Failsafe führen. Auch dieses verschweigt der Kollege seiner Leserschaft und bestreitet es vehement gegenüber jedem, und dies ganz sicher wider besseres Wissen. Warum er das macht, da kann sich jeder seine eigenen Gedanken machen.
Abschliessend möchte ich in diesem Thread nicht einsteigen in eine Diskussion, ob und für wen das höhere Failsaferisiko in der Praxis überhaupt relevant ist oder ob man jetzt dem einen oder anderen Sender nicht mehr sein teueres Spielzeug anvertrauen kann. Das mag jeder für sich entscheiden, da kommt man dann auch leicht zu "Glaubensfragen".
Ich hab lange überlegt, ob ich noch was schreiben oder es einfach lassen soll, hab mich dann doch zu obigem entschieden als Versuch, einer einfachen und für jeden verständlichen Erklärung. Damit will ich es auch belassen, soll sich jeder sein eigenes Bild machen.