Kostengünstige, kompakte Fernproduktion mit dem Camera Remote SDK von Sony
TBS Television und WOWOW sind Kanäle, die über traditionelles Fernsehen hinausreichen und sich auf Expansion in neuen Medienkanälen, wie Online-Streaming und Content-Enrichment, konzentrieren. Die Abteilungen für die Entwicklung neuer Technologien beider Sender haben sich zusammengetan, um ein kompaktes und kostengünstiges Fernproduktionssystem zu entwickeln, das auch von anderen Unternehmen eingesetzt werden kann. Sie haben bereits umfangreiche Praxiserfahrung gesammelt, die vom Online-Live-Streaming bis zu Live-Übertragungen aus dem Ausland im terrestrischen Fernsehen reichen.
In einem Interview mit Herrn Fujimoto aus der Innovative Technology Design Section der Media Technology Division von TBS Television und Herrn Shintaro Ishimura aus der Technology Planning Section des Technology Department von WOWOW, erkunden wir die Funktionen des bahnbrechenden Systems, die Rolle des Camera Remote SDK und dessen Perspektiven.
- Entwicklung eines kostengünstigen und kompakten Fernproduktionssystems
- Einführung der α- und Cinema Line-Kameras und des Camera Remote SDK von Sony
- Fernsteuerung von Kameras in den USA von einem Studio in Japan aus
- Hervorragende Bildqualität, deutlich mehr Feinjustierung und Freiheit durch Camera Remote SDK-Einstellung
- Die Möglichkeit, den Zoom des Objektivs über die Kamera zu steuern, ist eine besondere Stärke von Sony
Wie waren Ihre Erfahrungen mit der Verwendung des Camera Remote SDK?
Ishimura: Der Budgetrahmen für die Produktion unserer Inhalte variiert je nach Projekt erheblich. Wenn die Produktionskosten das Budget überstiegen, hatten wir in der Vergangenheit oft keine andere Wahl, als die Produktion vollständig einzustellen. Da wir die Produktionskosten durch die Verwendung neuer Technologien senken konnten, wollten wir inhaltliche Ideen wiederbeleben, die wir zuvor aufgegeben hatten, um so die Breite unseres Programmangebots zu erweitern. Dabei kamen wir auf das Konzept der „Fernproduktion“, wodurch wir das Personal vor Ort auf ein Minimum reduzieren und den Betrieb aus der Ferne steuern können. TBS und WOWOW verfügten über eine einzigartige Technologie namens „Live Multi-Viewing“ (LMV), die wir entwickelt hatten. LMV ermöglicht die Übertragung von Multistream-Video mit geringer Bandbreite und niedriger Latenzzeit. Durch die Nutzung von LMV glaubten wir, dass wir eine neue Form der Fernproduktion mit der Verwendung allgemeiner öffentlicher Netzwerke zu attraktiven Kosten erreichen könnten.
Fujimoto: Die Umwandlung in eine Fernproduktion hatte jedoch ihre Grenzen in Sachen Kostenreduzierung. Durch meine Erfahrung in der Produktionstechnik für terrestrische Programme merkte ich, dass man zum Beispiel „eine Fernproduktion erreichen kann, indem man einen 10 Mio. JPY teuren ferngesteuerten Kamerakopf an eine 10 Mio. JPY teure Kamera anschließt“. Dieser Ansatz würde jedoch unser ursprüngliches Ziel, die Produktionskosten zu senken, nicht erfüllen. Der entscheidende Aspekt war, ein kompaktes und kostengünstiges System zu entwickeln.
Ishimura: Schon vor dem Konzept der Fernproduktion haben wir mit softwarebasierter Produktion gearbeitet. Wir haben uns dafür entschieden, das Konzept mit Hilfe von PCs und softwarebasierten Mischern zu entwickeln, um kostengünstige Kameras über unsere eigene Fernsteuerungssoftware zu verwalten. Dies wurde unser Hauptziel.
Können Sie uns sagen, warum Sie sich für die α-Serie entschieden haben?
Fujimoto: Ursprünglich haben wir Kameras anderer Hersteller verwendet, weil sie erschwinglich waren und SDKs zur Verfügung standen. Bei der Benutzerfreundlichkeit sind wir jedoch auf einige Problematiken gestoßen, darunter ein langsamer Autofokus, ein einzelner Einstellungsmodus und die fehlende Möglichkeit, den Weißabgleich genau einzustellen. Außerdem wiesen die Kameras eine geringe Empfindlichkeit auf, was zu Problemen bei der Erzielung einer zufriedenstellenden Bildqualität führte.
Ishimura: Bei Sportübertragungen ist eine zusätzliche Beleuchtung nicht machbar. Ob in der Halle oder im Freien, bei Abend- oder Nachtspielen, die Beleuchtung war nie ausreichend. Die Kamera die wir früher verwendeten hatte auch einen begrenzten Dynamikbereich. In Szenen mit sowohl Sonnenlicht als auch Schatten führte die Einstellung für die dunkle Seite zu verwaschenen Bildern, während die Einstellung für die helle Seite zu verdunkelten Bildern führte. Da wir bereits α- und Cinema Line-Kameras für andere Zwecke verwendet haben, waren wir uns der hohen Empfindlichkeit, des weiten Dynamikbereichs, der Stabilität und der Zuverlässigkeit der α-Kameras bewusst. Das umfangreiche Angebot an Objektiven für den α E-Mount und die Einbeziehung von elektrischen Zoomobjektiven war genau das richtige für uns.
Fujimoto: Ich wusste, dass die α eine hervorragende Bildqualität und hohe Empfindlichkeit hat. Wir hatten bereits α- und Cinema Line-Kameras in Musikprogrammen und Dramen eingesetzt, und ich hatte ihren Einsatz bei der Fernproduktion in Erwägung gezogen. Zu der Zeit veröffentlichte Sony das „Camera Remote SDK“, das Kameras unter Windows, MacOS und Linux unterstützt. Während zahlreiche Kameras Windows und MacOS unterstützen, gab es keine anderen Kameras, die Linux, das Betriebssystem, das wir zur Steuerung verwenden, unterstützen. Dies war der springende Punkt für die Auswahl.
Könnten Sie uns die Funktionsweise der Fernbedienung erklären?
Ishimura: Für die Kamera selbst haben wir das SDK der Kamera verwendet, um Einstellungen wie Weißabgleich, ISO-Empfindlichkeit, Shutter-Geschwindigkeit, Autofokus, Blendenöffnung und Zoom zu verwalten. Um die Rolle eines ferngesteuerten Kamerakopfes zu erleichtern, der die Kamera nach oben, unten, links und rechts schwenken kann, haben wir eine elektrische Kardanaufhängung für Handheld-Aufnahmen eingesetzt. Durch den Einsatz des SDK auf der Kardanaufhängungs-Seite haben wir die Kontrolle über den Kamerawinkel erreicht. Diese Steuerungen werden auf dem Linux-kompatiblen Bordcomputer NVIDIA Jetson durchgeführt, der für das Video-Encoding und die Netzwerkübertragung zuständig ist. Jede Kamera ist mit einem dieser Computer gepaart. Bei unserer Hauptproduktion der Tennisstaffel, reicht die Anzahl der Kameras von 3 bis 5 und die Grundkonfiguration ist für alle gleich.
Könnten Sie ein Beispiel für einen praktischen Einsatz mit den Kameras von Sony und dem Camera Remote SDK vor Ort nennen?
Fujimoto: Im Juli 2022 haben wir es für die Live-Übertragung eines Leichtathletik-Wettbewerbs im terrestrischen Fernsehen eingesetzt. Wir haben zwei ‚α7S III’-Kameras, die in einem Stadion in Oregon, USA, aufgestellt waren, von der TBS-Fernsehzentrale in Tokio aus ferngesteuert. Wir projizierten die übertragenen 4K-Bilder als Hintergrundbild auf die LED-Wand des XR (Extended Reality)-Studios. Wir haben uns für das FE 12–24mm F2.8 GM Objektiv entschieden, welches das gesamte Stadion mit einem Ultraweitwinkel von etwa 120 Grad aufgenommen hat. Durch die einzigartige Leistung der α mit ihrem Vollformat-Bildsensor deckten die scharfen 4K-Bilder selbst die Randbereiche ab. Die Anwesenden im Studio waren von der hohen Präsenz sichtlich begeistert.
Außerdem nutzen wir Fernaufnahmen seit 2019 für Tennisspiele. Seit dem Streaming des nationalen Highschool-Tennisturniers im März 2022 nutzen wir jedoch die α7 IV- und α7S III-Kameras mit dem Camera Remote SDK von Sony. Wir haben uns für das E PZ 18–105 mm F4 F OSS Objektiv, das elektrischen Zoom unterstützt und für Videoaufnahmen konzipiert ist, entschieden. Im Dezember 2022 führten wir auch die Cinema Line-Kamera ILME-FX30 ein und setzten sie für das Live-Streaming eines Junior-Tennisturniers in Ehime ein.
Warum haben Sie sich für die ILME-FX30 entschieden?
Fujimoto: Erstens ist die Tatsache, dass sie über einen Bildsensor im APS-C-Format verfügt, von großer Bedeutung. Das erleichtert Teleaufnahmen und ermöglicht eine größere Tiefenschärfe, wodurch sie sich auch für Sportfotografie eignet. Der zweite ausschlaggebende Punkt war der Preis, der einschließlich der Kosten für das Objektiv in unserem Budget lag. Als Teil der Cinema Line bezieht die FX30 außerdem Aspekte wie die Wärmeableitung bei langen Videoaufnahmen automatisch ein, wodurch man sich auf die Kamera verlassen kann. Die Bildqualität ist natürlich tadellos, und die Nachführleistung des Autofokus ist hervorragend. Wir haben das Gefühl, dass wir uns mehr nicht wünschen könnten. Im Februar 2023 fügten wir für das internationale Tennisturnier der Herren auch die Cinema Line-Kamera FX6 hinzu, die wir über das Camera Remote SDK fernsteuerten. Die FX6 wurde von uns für den Betrieb durch Kameramänner/-frauen vor Ort eingesetzt, um die Farbkonsistenz und die Einheitlichkeit der Belichtung mit anderen unbemannten Kameras zu gewährleisten. Eine der Stärken des Camera Remote SDK ist die Kompatibilität mit vielen Kameramodellen. Im März 2023 haben wir außerdem die Cinema Line-Kamera FX3 eingeführt.
Was sind Ihre Eindrücke nach Nutzung der Camera Remote SDK?
Fujimoto: Ich war persönlich an der Entwicklung dieser besonderen Fernsteuerungssoftware beteiligt. Im Vergleich zu den SDKs anderer Unternehmen, die wir anfangs verwendeten, zeichnete sich das SDK von Sony durch ein deutlich höheres Maß an Feinjustierungsmöglichkeiten und größerer Freiheit bei den Einstellungen aus. Außerdem ist die Möglichkeit, den Zoom des Objektivs über die Kamera zu steuern, eine besondere Stärke von Sony. Die Software wird regelmäßig aktualisiert, und es werden laufend neue Funktionen und Code-Beispiele hinzugefügt. Mehr Updates bedeuten mehr Motivation unter Entwicklern. Bei den Cinema Line-Kameras gibt es auch den elektrisch schwenk- und neigbaren FR7, der die Fernsteuerung unterstützt. Wir überlegen, auch dies zu nutzen.
Können Sie etwas zu Ihren zukünftigen Plänen sagen?
Fujimoto: Wir ziehen in Betracht, zukünftig ferngesteuerte Kameras auf Fahrzeugen einzusetzen. Bei Marathonsendungen haben wir beispielsweise einen speziellen Ü-Wagen mit einer umfangreichen Schwingungsisolierung eingesetzt, um die Kamera im Fahrzeug zu steuern. Mit unserem System ist eine Fernsteuerung möglich, wodurch wir es auf gewöhnlichen Autos oder auf Motorrädern installieren können. Außerdem wollen wir die Nutzung dieses Systems in der terrestrischen Programmproduktion ausweiten.
Ishimura: Wir experimentieren außerdem mit KI-gestützter Automatisierung der Kameraarbeit, um die Zahl der an den Einsätzen beteiligten Mitarbeiter weiter zu reduzieren. Wir haben dieses System mit dem Fokus auf Kosteneffizienz entwickelt, damit es für eine breite Palette von Fachleuten und Unternehmen zugänglich ist. Mit der konstanten Weiterentwicklung des Systems zielen wir darauf ab, Dienstleistungen und Systeme für externe Nutzer anzubieten.