Beste Antwort
HDMI ist eine bessere Wahl für Unterhaltungselektronik als HD-SDI. P. >
- SDI-Verbindungen verwenden 75-Ohm-BNC-Kabel, die sich nur schwer in engen Bereichen anschließen lassen.
- SDI ist ein Single-Direction-Stream. Es kann nicht festgestellt werden, ob sich der Monitor am anderen Ende befindet implementiert HDCP. Dies ist ein großes Hindernis für Inhaltsanbieter. HDMI enthält einen I2C-Bus, mit dem der Monitor abgefragt wird.
- HDMI verfügt über drei Differenzpaare für Daten und eines für die Uhr. Dies bedeutet, dass HDMI-Kabel weniger anfällig für bestimmte Arten von Rauschen sind als ein SDI-Kabel. Dies bedeutet auch, dass ein einzelnes HDMI-Kabel eine höhere Bandbreite als ein einzelnes SDI-Kabel übertragen kann.
UHD- oder 4K-Fernseher mit 60 progressiven Bildern pro Sekunde und 12 Bit pro Pixel benötigen Daten, die mit geliefert werden 6 Gbit / s. Die meisten SDI-Verbindungen sind auf 1,5 Gbit / s oder 3 Gbit / s beschränkt. Um dieselben Daten auf HDMI auszuführen, sind nur 2 Gbit / s erforderlich.
Für professionelle Broadcast-Geräte gelten weiterhin HD-SDI und 3G-SDI. Professionelle Installationen sind an die Verwendung von BNCs gewöhnt, sie mögen die positive Verriegelung mit einem BNC. Sie möchten in der Lage sein, ihre eigenen Kabel auf Länge zu machen. Sie möchten auch nicht, dass ihre Überwachungsstationen plötzlich entscheiden, keine Videos mehr anzuzeigen, nur weil das System der Ansicht ist, dass sie HDCP-Videos nicht anzeigen dürfen.
Derzeit verwenden Rundfunkveranstalter nicht sehr viel 4K oder sogar 1080p60 Oft benötigen sie für fast alles, was sie tun möchten, nur ein einziges Kabel. Wenn das Rundfunkfernsehen auf 4K umgestellt wird (zuerst über Kabel), wird möglicherweise ein neuer Standard für die Ausführung von 6-Gbit / s- oder 12-Gbit / s-Videodaten angezeigt. Bevor ich meinen letzten Arbeitgeber verließ, untersuchten wir die Verwendung von 10-Gbit / s-Ethernet für die Übertragung von 3-Gbit / s- und 6-Gbit / s-SDI-Signalen.
Antwort
HDMI war eine Modifikation von DVI. Die eigentliche Frage lautet also: Warum? DVI erfolgreich und nicht SDI als Computermonitor-Schnittstelle? Es gibt eine Reihe von Gründen, aber einer war der Preis. SDI war eine Nischenschnittstelle mit geringen Verkaufsmengen für Schnittstellenchips. Dies führte unweigerlich zu einem margenstarken Geschäftsmodell – die Hersteller mussten die F & E-Kosten tragen – und die Entwickler von DVI betrachteten es nicht einmal als Option, obwohl es tatsächlich ein gutes gewesen wäre. Auch auf der technischen Seite ist SDI eine Einzelsignalschnittstelle, was bedeutet, dass die Uhr aus den Daten wiederhergestellt werden muss. Schnittstellen wie diese funktionieren mit einer begrenzten Anzahl von Datenraten, sodass die Taktwiederherstellungsschaltung „weiß, wo sie suchen muss“. Die Computerindustrie ist traditionell allergisch gegen Standardisierung und mag die Idee, dass jeder Monitor eine andere Auflösung und Bildrate haben kann, was zu einer massiven Auswahl an Datenraten führt. Diese werden in DVI (und später in HDMI) mit einem dedizierten Taktsignal unterstützt, das eine eigene physikalische Schnittstellenleitung benötigt. Sobald diese Anforderung zu mindestens 2 Schnittstellensignalen (Takt und Daten) führte, ging der Vorteil eines einzelnen Signals gegenüber dem Koaxialkabel verloren, und die Mehrfachverbindungsschnittstelle DVI entstand. Tatsächlich wurden die Herausforderungen der Schnittstelle den Kabelherstellern und den Benutzern gestellt, die mit Mehrwegverbindern fertig werden müssen, die je nach Größe entweder klobig oder zerbrechlich sind. DisplayPort hat das SDI-Modell übernommen, eine begrenzte Anzahl von Datenraten zu verwenden und die Formate mit niedrigerer Auflösung auszufüllen, um den „Datenbereich“ zu füllen, sodass keine dedizierte Taktleitung erforderlich ist. So kann es gemacht werden, wurde aber von den DVI-Entwicklern nicht berücksichtigt. Jüngste Entwicklungen bei SDI, einschließlich einer Kapazität von 12 Gbit / s über 50 m leichtes Kabel und eines Rückkanals (wie wenn SDI für Überwachungszwecke verwendet wird), bedeuten, dass es eine weitaus bessere Schnittstelle gewesen wäre, aber dass das Boot vor vielen Jahren mit dem gesegelt ist DVI-Entwicklungsausschuss.
Übrigens ist es nicht wahr, dass das Differentialpaar besser ist als Koax. Es gibt ein grundlegendes Problem bei Differenzsignalen über Twisted Pair, bei dem es sich um einen Intra-Pair-Versatz handelt. Bei hohen Datenraten beträgt die „Wellenlänge“ der Bits nur wenige cm, und es ist nicht möglich, Kabel genau genug zu verdrillen, um die beiden Kabel in einem Paar genau auf der gleichen Länge zu halten, wenn die Kabellänge zunimmt. Dies ist kein Problem für Computermonitor-Schnittstellen (denken Sie daran, dass HDMI als DVI begann), da eine maximale Länge von 5 m mehr als ausreichend ist, aber HDMI als Schnittstelle zu einem Deckenprojektor wirft bekanntlich echte Probleme auf. Koaxialkabel leiden nicht unter diesem Problem. Sie sind verlustbehaftet (wie auch verdrillte Paare), aber der Verlust kann ausgeglichen werden. Intra-Pair-Skew kann nicht.