Das Metaversum ist eine dieser große, gehaltvolle Konzepte das alle möglichen Debatten auslöst. Manchmal praktisch, oft theoretisch. Oder ganz einfach vage. Und während einige Beobachter die Auswirkungen des Metaversums zögerlich und andere überschwänglich betrachten, sind sich viele einig, dass das Konzept eine wirklich große Sache ist.
Metastase ist ein Unternehmen an der Spitze des Ganzen. Metastage bietet hochmoderne, volumetrische 3D-Videoaufnahmen und fotorealistische virtuelle Menschen - und ist in Verbindung mit der virtuellen Produktion perfekt geeignet, um sie als Repräsentationen realer Menschen in das Metaversum zu integrieren.
MASV sprach mit dem CEO von Metastage Christina Heller und Leiter der Produktion Skylar Sweetman um zu erfahren, wie Videoproduzenten das Metaversum nutzen können, welche Tools sie dafür verwenden können und was das alles für M&E-Fachleute und Verbraucher bedeutet.
Schauen wir genauer hin.
Zum Abschnitt springen:
- Was ist das Metaversum?
- Wie werden die Menschen im Metaverse auf Medien zugreifen und sie konsumieren?
- Wie wird sich das Metaverse auf Medien und Unterhaltung auswirken?
- Wie wirkt sich dieses Konzept auf die Ersteller von Inhalten aus?
- Welche Rolle spielt Metastage im Metaversum?
- Was ist volumetrisches Video und wie trägt es zum Metaversum bei?
- Wie ist das Verhältnis zwischen volumetrischer und virtueller Produktion?
- Wie werden sich die virtuelle Produktion und die volumetrische Erfassung Ihrer Meinung nach entwickeln?
Hinweis: Die folgende Abschrift wurde aus Gründen der Länge und Klarheit bearbeitet.
Was ist das Metaversum?
Christina Heller: Für mich bedeutet das Metaversum unsere virtuellen und digitalen Realitäten. Und die entwickelt sich natürlich mit der Zeit immer weiter. Aber wir fangen an, die Grundlage für eine digitale Schicht über unserer bestehenden physischen räumlichen Realität zu sehen. Eine synthetische Welt, die endlos ist, die man erforschen und erschaffen kann, in der man zusammenarbeiten und lernen kann. Sie ist ein eigenständiges Gebilde und gleichzeitig eine Art digitale Ebene, in der wir Aspekte unseres Computerlebens mit unserem physischen Leben verschmelzen können. Und wir fangen an, die Bausteine dafür zu sehen, mit Virtual Reality, Augmented Reality und Mixed Reality.
Wenn Sie z. B. viel spielen, sich mit virtueller Realität beschäftigen oder in der Produktion an hochmodernen KI-Konzepten arbeiten, dann sehen Sie schon die ersten Ansätze. Aber es fühlt sich immer noch ziemlich rudimentär an im Vergleich zu Ready Player OneIch glaube, dass wir uns eindeutig auf diese Science-Fiction-Fantasie zubewegen. Ich hoffe nur, dass die endgültige Vision davon weniger dystopisch ist als das, was wir in vielen Projektionen der Medien gesehen haben, und ich hoffe, dass wir mehr darauf achten können, wie die Technologie unser Leben wirklich verbessert und erweitert.
Wie werden die Menschen auf das Metaverse zugreifen und dort Medien konsumieren?
CH: Um sie als räumliche, physische Realität zu erleben, wird man zumindest in absehbarer Zukunft eine Art kopfgetragenes Gerät benötigen. Ich hörte von Kontaktlinsen unter AWE dieses Jahr. Es wird eine Schnittstelle geben, die Sie auf Ihr Gesicht legen und die es den digitalen Komponenten ermöglicht, mit den physischen Komponenten zu interagieren.
Ich denke also, dass es Brillen sein werden, und ich denke, dass sie ähnlich funktionieren werden, wie Ihre Uhr mit Ihrem Telefon im Moment. Und wir werden anfangen, Hologramme, Datenvisualisierungen, Informationen, Unterhaltung und Werbung - leider - in unserer Welt zu sehen. Und wenn wir uns der virtuellen Realität zuwenden, dann ist es wirklich eine allumfassende digitale Realität, in der die Beschränkungen unserer physischen Form und unserer physischen Erfahrung nicht mehr vorhanden sind. Und die Implikationen dessen, was in der virtuellen Realität möglich ist, sind faszinierend, verrückt und aufregend, vor allem, wenn sich die Technologie weiterentwickelt.
Unbegrenzte Dateiübertragung für unbegrenzte Kreativität
Melden Sie sich für MASV an und versenden Sie bis zu 15 TB mit einer einzigen Datei.
Wie wird sich das auf die Medien und die Unterhaltung auswirken?
CH: Wir haben in den letzten 20 Jahren gesehen, dass Unterhaltung in vielen verschiedenen Formen auftreten kann. Heutzutage kämpft man um die Aufmerksamkeit des Publikums. Sobald die erweiterte Realität ausgereifter ist, denke ich, dass sie nur eine weitere Möglichkeit für das Publikum sein wird, seine Zeit mit Inhalten zu verbringen. Und dann ist es wie bei allen anderen Dingen auch. Es ist ein Kampf um Zeit. Würden Sie lieber in einem VR-Chat sitzen und einem Ihrer Lieblingsmusiker bei einem Live-Auftritt zusehen? Oder wollen Sie lieber Netflix schauen?
Vielleicht gibt es ja eine Netflix-Show, die irgendwann aus meinem Fernseher ausbricht und jetzt ein wirklich immersives Erlebnis ist. Stell dir vor, wie cool das wäre? Ich sehe mir eine Drogentrip-Sequenz einer Fernsehsendung an, und plötzlich wird mein ganzes Schlafzimmer für etwa 30 Sekunden zu diesem Drogentrip. Es gibt viele Möglichkeiten, wie man damit kreativ sein kann. Und ich hoffe, dass sich mehr Menschen für Mixed-Reality-Erfahrungen begeistern können.
Wie wirkt sich das Konzept der virtuellen Produktion auf die Urheber von Inhalten aus?
Virtuelles Produktionsstudio - Unreal Engine
CH: Das Schöne an der Produktion virtueller Inhalte ist, dass sie so vielseitig ist. Man kann eine Welt erschaffen, die man wie eine herkömmliche Fernsehsendung drehen kann, aber dann kann man dieselben Welten nehmen und eine Virtual-Reality-Komponente daraus machen, in die die Leute hineingehen, sich selbst platzieren und herumlaufen können. Je mehr wir digitale Assets für die Erstellung traditioneller oder gerahmter Inhalte schaffen, desto mehr können Sie diese Assets für sich als Schöpfer nutzen und damit verrückte, lustige und experimentelle Aktionen durchführen. Oder Sie können es als NFT verkaufen. Es gibt eine Million Möglichkeiten, denn es handelt sich um ein digitales Gut.
Eines der Dinge, die ich an Filmen mag, die vor dem Jahr 2000 oder so gemacht wurden, ist, dass man, wenn man sieht, wie etwas in die Luft fliegt, denkt: "Oh, mein Gott, das haben sie tatsächlich in die Luft gejagt." In diesem Sinne wird die virtuelle Produktion nie ganz das Gefühl ersetzen, dass etwas physisch gemacht wurde. Aber der Vorteil ist, dass wir das tägliche Leben der Menschen nicht durch Straßensperrungen stören oder einen Haufen Müll bei Dreharbeiten verursachen, weil wir eine große, verrückte Explosion machen mussten.
Skylar Sweetman: Ich möchte nur an das anknüpfen, was Christina über die Vielseitigkeit dieser virtuellen Assets und Räume gesagt hat, die Sie für virtuelle Produktionspipelines schaffen: Die Explosion, über die wir gesprochen haben, kann immer wieder stattfinden. Sie kann in einer Galerie oder in einer Art Erlebnisraum stattfinden, in dem das Publikum diese Hitze spüren und als Bild sehen kann - und zwar genau so, wie es in dem Film oder der Fernsehsendung passiert ist, die es gesehen hat. Es gibt so viele Möglichkeiten, ein digitales Asset zu erweitern, und es ist spannend für Kreative und Technologen, weil es ein so neues und offenes Feld ist. Es gibt viele Bereiche für die Zusammenarbeit. Und das war schon immer die Geschichte von Hollywood und der Unterhaltung: Die Kreativen brauchen die Technologen, und die Technologen brauchen die Kreativen, um zu wissen, wohin sie sie treiben sollen.
Welche Rolle spielt Metastage im Metaversum oder hofft, sie in Zukunft spielen zu können?
CH: Uns gibt es seit etwas mehr als drei Jahren, und unser Hauptanliegen ist es, authentische, echte menschliche Darbietungen in das Metaversum zu bringen. Anstatt also einen synthetischen Avatar zu erschaffen, der von einer Puppe gespielt wird, bringen wir Live-Action-Performances echter Menschen in die virtuelle und erweiterte Realität, wobei wir traditionelle und virtuelle Produktionswerkzeuge und -methoden verwenden.
Wir machen also volumetrisches Video oder volumetrische Aufnahmen. Wir haben Sportler, Musiker und Persönlichkeiten des öffentlichen Lebens gefilmt. Wir haben Black Panther aus den 1960er Jahren und Überlebende des Holocaust aufgenommen. Wir sind stolz auf unsere qualitativ hochwertigen, hochauflösenden Aufnahmen, die der Realität am nächsten kommen, wenn man neben dieser Person steht oder ihr gegenüber sitzt oder sie beobachtet. Mit Blick auf die Zukunft gibt es auch Aspekte des volumetrischen Live-Videos, bei dem wir Musiker oder Performances live in das Metaversum übertragen.
Wir arbeiten auch mit vielen Experten in Lidar-Scannen um reale Umgebungen in virtuelle und erweiterte Realitätsräume zu bringen. Ich würde nicht wollen, dass das Metaversum nur aus synthetischen Menschen und Figuren besteht: Es sollte uns auch die Möglichkeit geben, unsere reale Welt und die physische Realität zu schätzen. Das ist eine sehr coole Nische, und ich denke, sie ist wichtig.
Was ist ein volumetrisches Video?
SS: Das Konzept hinter volumetrischem Video besteht darin, dass man eine Reihe von Kameras um eine Person oder ein Tier herum einsetzt und diese Person aus jedem einzelnen Winkel von oben, von unten und von der Seite aufnimmt. Sie erfassen jeden einzelnen Teil ihres Körpers. Dann kann man all diese Videodaten nehmen, sie verarbeiten und ein 3D-Objekt erstellen, das eine exakte, fotografische digitale Nachbildung des Geschehens auf der Bühne ist. Sie müssen keine Tracking Dots verwenden. Es gibt kein Puppenspiel oder virtuelles Rigging - es gibt keine visuellen Effekte. Es handelt sich um eine echte 3D-Darstellung des Geschehens auf der Bühne. In dieser Hinsicht ist es also eine wirklich einzigartige und wunderbare Technologie für die Bildungstechnologie oder für alles, was eine echte und authentische menschliche Präsenz in einer virtuellen digitalen Umgebung erfordert.
CH: In vielen Bereichen haben wir bereits Erfolge erzielt, z. B. im Sport, indem wir berühmte Athleten zu uns geholt haben und sie ihre charakteristischen Bewegungen ausführen ließen, oder indem wir einfach ihre physische Präsenz zeigen konnten. Es tut mir leid, aber ein synthetischer Avatar von Ray Allen ist nicht annähernd so cool wie der Typ, der die legendären Dreipunktwürfe gemacht hat.
Wir haben auch viel mit Musikern gearbeitet. Musiker sind immer bestrebt, auf dem neuesten Stand zu sein. Wir haben vor kurzem damit begonnen, 3D-Performance-Captures von Musikvideos und Werbespots zu machen, die mit einer Game-Engine erstellt wurden, wobei das volumetrische Video in Metastage erfasst wird und das Hauptobjekt in der VFX-Pipeline der virtuellen Produktion ist.
Wir haben eine Menge Marketing-Aktivierungen durchgeführt, die 8. Wand und QR-Codes. Sie scannen den QR-Code, ohne eine App herunterladen zu müssen, und ein kleines Hologramm erscheint vor Ihnen und Sie können diese Person in Ihr Wohnzimmer holen. Kürzlich haben wir eine Sendung mit dem Snowboard-Weltmeister Chloe Kim: Du bekommst deinen Skipass und kannst einen QR-Code scannen und Chloe Kim kommt in dein Wohnzimmer und spricht mit dir über die kommende Skisaison.
Was ist der Unterschied zwischen 360/immersiven Videos und volumetrischen Videos?
CH: 360°-Videos sind ein völlig anderes Verfahren und können die volumetrische Erfassung ergänzen, wie z. B. 360°-Videos, bei denen man mit einer Reihe von Kameras die Welt um sich herum aufnimmt. Und dann gibt es noch das LIDAR-Scanning und die Photogrammetrie, bei denen man eine Umgebung mit hoher Auflösung abtastet.
Bei volumetrischen Videos hingegen werden die Aufnahmen nach innen gerichtet, um eine Aufführung aus jedem Winkel zu erfassen. Aber Sie können 360-Video und eine volumetrische Aufnahme innerhalb dieses 360°-Videos machen, um ein realistisches, immersives Videoerlebnis zu schaffen.
Welche Art von Ausrüstung wird normalerweise für volumetrische Videodrehs benötigt?
CH: Das hängt wirklich von Ihren Zielen ab und davon, mit welchem volumetrischen System Sie arbeiten. Metastage ist ein Premium-Anbieter für volumetrische Erfassung. Das bedeutet, dass wir erstklassige Ausrüstung verwenden: Wir verwenden 106 Kameras, um diese Performances zu erfassen, und darüber hinaus verwenden wir den Microsoft-Technologie-Stack, um die Daten zu verarbeiten. Wir fallen in die Kategorie eines professionellen Produktionsstudios, das die höchstmögliche Qualität liefert. Obwohl ich anmerken sollte, dass wir nicht so teuer sind, wie die Leute denken. Wir verwenden 106 Kameras und verarbeiten die Daten auf einer 50-Blade-Renderfarm vor Ort - und wir verwenden Azurblau Cloud-Verarbeitung bei Überlauf.
Auf der anderen Seite sehen Sie sich andere Lösungen an wie Scatter's Depthkitdas eher ein volumetrisches Produkt für den Verbraucher ist. Es ist ein ganz anderes System. Es sind wesentlich weniger Kameras, aber es ist ein System, das man auf einem Feld oder wo auch immer einsetzen kann, um mit nur ein oder zwei Personen volumetrische Aufnahmen zu machen. Es gibt also eine Reihe von Optionen für die volumetrische Videoproduktion. Generell gilt jedoch, dass mehr Kameras gleichbedeutend mit besserer Aufnahme sind, und Sie werden einen qualitativen Unterschied feststellen.
Depthkit - Streuung
SS: Es ist interessant, denn eine Person mit mehreren iPhones könnte technisch gesehen so etwas wie ein volumetrisches Aufnahmesystem einrichten. Das ist schon irgendwie cool. Ich meine, es ist irgendwie aufregend, auf dieser Ebene darüber nachzudenken.
Wie sieht es mit Auflösungen und Bildraten aus? Was würden Sie normalerweise verwenden und gibt es Unterschiede je nach Projekt?
Normalerweise nehmen wir mit 30 Bildern pro Sekunde auf. Wir können auch mit 60 aufnehmen, aber dann würden wir die doppelte Menge an Daten erhalten. Um Ihnen eine Vorstellung davon zu geben, wie viele Daten wir bei einer Aufnahme mit 12 Megapixeln erfassen, was in der Regel die höchste Aufnahmequalität ist, erfassen wir 30 Gigabyte an Rohdaten pro Sekunde. Wenn wir mit vier Megapixeln aufnehmen, sind es 10 Gigabyte Rohdaten pro Sekunde. Wir nehmen also mit 30 Bildern pro Sekunde auf, denn wenn wir mit 60 Bildern pro Sekunde aufnehmen, verdoppeln wir die Datenmenge, und die Verarbeitung kostet einfach viel mehr Zeit, Geld und Energie. Ich glaube, wir haben vielleicht eine Aufnahme mit 60 gemacht, bei der wir einen Athleten mit einer besonders schnellen Bewegung aufgenommen haben. Und es war eine sehr kurze Aufnahme.
Je nachdem, wo das endgültige Erlebnis ausgeführt werden soll, passen wir auch die Polygonanzahl an, d. h. die Anzahl der Polygone im Mesh der holografischen Erfassung, je nachdem, wo es stattfinden soll. Wenn es sich um ein Web-AR-Erlebnis handelt, sollten wir die Polygonanzahl und die Auflösung so gering wie möglich halten, da es über das Internet übertragen wird. In diesem Fall denke ich, dass die kleinste mögliche Größe 10.000 Polygone bei einer Auflösung von 1,5K ist.
Wir haben vor kurzem ein Shooting mit Snapchat gemacht und mussten wirklich hart arbeiten, um die Polygonanzahl und die Auflösung auf eine Größe zu bringen, die für Snapchat geeignet war. Umgekehrt, als wir ein Shooting für Unity für ihren neuen Metacast UFC-KonzeptnachweisSie wollten es durch ihre eigenen Komprimierungssysteme schicken, also haben wir es mit unserer maximalen Auflösung gemacht: 60.000 Polygone bei fast 4K-Auflösung.
Wir bewerten immer, wie groß die Datei sein wird und welche Qualität Sie benötigen. Aber die Komprimierung unserer Technologie ist erstaunlich: Wenn wir die 30 Gigabyte Rohdaten pro Sekunde auf 70 Megabyte pro Minute reduzieren müssen, schaffen wir das regelmäßig. Wir haben von Anfang an darauf geachtet, dass die Inhalte so weit wie möglich gestreamt werden können und so klein wie möglich sind.
Senden von Terabytes an Rohdaten über die Cloud
Benötigen oder verwenden Sie spezielle Kameraobjektive oder Kameratypen?
VOLUCAM 89B64CV Wiederholungskamera
CH: Wir verwenden IOI-Kameras. Es handelt sich um Bildverarbeitungskameras. Dreiundfünfzig davon sind RGB-Kameras, die die visuellen und textuellen Daten der Personen erfassen, und die anderen 53 sind Infrarotkameras, die eine Punktwolke aufnehmen, aus der ein Netz abgeleitet wird. Und so erhalten wir das Netz. Es gibt eine UV-Karte, und dann werden all diese visuellen und textuellen Daten auf die UV-Karte des Netzes angewendet, und so erhalten wir das Hologramm.
SS: Es gibt eine Vielzahl von Objektiven, die Sie ebenfalls verwenden können. Und es gibt keine feste Zahl dafür. Wir verwenden 16-mm-Objektive, aber wir haben auch schon breitere und schmalere gesehen. Es hängt einfach von der technischen Ausstattung und der Anwendung ab.
Sie erwähnten große Dateigrößen. Wie groß ist die durchschnittliche Dateigröße eines volumetrischen Videos?
SS: Wie Christina schon sagte, wenn wir mit 12 Megapixeln aufnehmen, sind das 30 Gigabyte an Daten pro Sekunde bei 30 Bildern pro Sekunde. Und dann braucht ein Künstler vielleicht ein paar Versuche, um die Aufnahme zu machen. Datenmanagement ist also definitiv ein Teil unserer Welt - wir denken viel darüber nach. Wir neigen dazu, Azure zu nutzen, sowohl für die Überlaufverarbeitung als auch für die Speicherung.
Aber wenn es um das endgültige Asset geht, also darum, aus den Videodaten von 106 Kameras eine kleine, streambare Datei zu erstellen, beginnt man mit dieser riesigen Punktwolke mit Millionen von Punkten. Und daraus wird ein geschlossenes, wasserdichtes Netz mit riesigen Texturen. Und man iteriert und iteriert und iteriert, bis man weniger als 100 Megabyte für eine volle Minute volumetrischer, vollständiger 3D-Leistung hat.
Können Sie ein Beispiel für die größten Projekte nennen, die Sie auf Azure gespeichert haben?
CH: Ich würde sagen, 60 bis 70 Terabyte. Darin enthalten sind viele der Quelldaten und andere Dinge, die wir für den Fall aufbewahren, dass der Kunde sie wiederverarbeiten möchte oder ähnliches. Das ist also unbearbeitet. Wir haben sie nicht durch die Pipeline gejagt. Das sind nur die Rohdaten. Das ist eine Meisterleistung der modernen Technologie, denn vor der Cloud-Speicherung weiß ich nicht einmal, wie man diese Art von Workflow durchführen könnte.
Wie sieht es mit Audio aus? Wie nehmen Sie 3D-Sound auf oder erstellen ihn?
CH: Wir arbeiten mit einem fantastischen Audioteam zusammen - Echo VR ist ihr Name. Wir verwenden viel Energie darauf, den Ton genauso ernst zu nehmen wie das Video. Bei vielen unserer Drehs verwenden wir Lavaliers, um eine gute, saubere Tonaufnahme zu erhalten, wie bei jeder professionellen Produktion. Wir haben auch Sennheiser-Richtmikrofone, die wir als zuverlässige und saubere Tonquelle verwenden: Wenn die Kostüme es nicht zulassen, ein Lavalier einzubauen, z. B. bei einem Badeanzug oder ähnlichem, dann können wir die Shotgun-Mikrofone verwenden. Dann durchlaufen die Aufnahmen den typischen Pro Tools-Soundbereinigungs- und Mastering-Prozess und werden an das endgültige Ergebnis angehängt.
Lesen Sie mehr: Verstehen von Audiodateiformaten
Ist volumetrisches Video ein Muss für das zukünftige Metaversum?
CH: Man kann ein Metaverse-Erlebnis haben, das keine volumetrische Erfassung hat. Ich mache das in VR die ganze Zeit, gehe in AltspaceVR und VR-Chat. Wir sind alle Avatare. Wir erforschen synthetische Welten. Das macht super viel Spaß, und es ist kein volumetrisches Video nötig. Aber damit das Metaversum sein wahres Potenzial ausschöpfen kann, müssen wir in der Lage sein, echte Menschen in dieses Universum zu portieren. Und genau dafür sind wir in einzigartiger Weise qualifiziert.
Wie ist das Verhältnis zwischen volumetrischer und virtueller Produktion? Überschneiden sie sich?
CH: Das tun sie. Zum Beispiel, in eine Werbung we hat mit R/GA in New York haben sie alle Welten mit VFX-Software gebaut: Sie verwendeten Maya, Houdiniund Nuke. Ich glaube, sie verwenden Maya für den größten Teil der Welterstellung, und sie verwenden Houdini und Nuke für einige zusätzliche VFX bei der Aufnahme selbst. Das volumetrische Video ist also die Hauptleistung, und die Welt wurde mit VFX-Software erstellt. Dort wurden die virtuellen Kamerabewegungen ausgeführt, um alle Aufnahmen für den endgültigen Werbespot zu erstellen.
Wenn Sie den Schauspieler oder Darsteller mit hochwertigem volumetrischem Video aufnehmen, haben Sie mit diesem Asset dieselbe Flexibilität wie mit jedem anderen 3D-Asset. Und wenn Sie alles innerhalb der Game Engine erstellen, können echte Menschen Teil dieses virtuellen Produktionsszenarios sein, im Gegensatz zu einem virtuellen Produktionsszenario, bei dem eine Person vor einer LED-Wand steht und Sie sie auf diese Weise filmen. So kann man alles in der Engine machen.
SS: Und wenn man bedenkt, was das Team von R/GA zu leisten vermochte, Sie konnten diese wilden, riesigen Kamerabewegungen machen, die in der Praxis sehr teuer gewesen wären und ein enormes Budget, viel mehr Personal und mehr Zeit erfordert hätten. Und sie hätten die Aufnahmen mehrere Male machen müssen. Aber da sie diesen Helden-Asset hatten, ist alles andere danach einfach flexibel.
Wie werden sich die virtuelle Produktion und die volumetrische Erfassung Ihrer Meinung nach in Zukunft entwickeln?
CH: Ich kann mir vorstellen, dass dies mehr Flexibilität bei der Schaffung von Inhalten ermöglicht. Im Idealfall dient das nicht nur den Regisseuren und Visionären, sondern auch den Darstellern. Vielleicht müssen sie nicht mehr so viele Takes machen, weil der Regisseur seine Aufnahmen in der Nachbearbeitung einrahmen kann.
Wir möchten Christina Heller und Skylar Sweetman von Metastage dafür danken, dass sie uns über die technischen Feinheiten bei der Schaffung eines Metaversums aufgeklärt haben und darüber, wie es Medien und Unterhaltung beeinflussen wird. Wenn Sie mehr darüber erfahren möchten, wie Metastage volumetrisches Video und virtuelle Produktion einsetzt, um authentische menschliche Darbietungen für ein digitales Medium einzufangen, können Sie metastage.com.
Das Metaverse verspricht, die Grenzen zwischen unserer digitalen und unserer physischen Realität zu verwischen. Dieses Konzept ist zwar ehrgeizig, aber dank der Fortschritte in der Spiele- und Medientechnologie nicht unerreichbar. Volumetrisches Video und virtuelle Produktion sind zwei Möglichkeiten, wie Kreativprofis Menschen in digitale Welten einbinden. Durch die Aufnahme fotorealistischer Darbietungen aus jedem Winkel und die Kombination mit VFX-Worldbuilding und modernstem Rendering können Kreative Inhalte produzieren, die uns auf einer intimeren Ebene ansprechen.
Um das Metaverse - oder jede andere digitale Erstproduktion - zum Leben zu erwecken, müssen Filmemacher und Entwickler alle massiv Dateigrößen, die durch hochauflösende Videoaufnahmen und datenintensive Produktionsdateien entstehen. Ganz gleich, ob es darum geht, Material von der volumetrischen Erfassung zum VFX-Team zu transportieren oder Proxys zur Überprüfung an Kunden zu senden - massive Dateien verlangen nach MASV.
MASV ist ein Dateifreigabedienst, mit dem Medienprofis Terabytes an Daten über die Cloud schnell an jeden in der Welt übertragen können. Dank unseres Netzwerks aus 150 globalen Rechenzentren und ohne Drosselung der Übertragungsgeschwindigkeiten liefern wir Dateien stets in Rekordzeit. Alle über MASV freigegebenen Dateien sind verschlüsselt und werden durch eine Netzwerk vertrauenswürdiger Partner Bewertung; der Industriestandard für den Schutz von Inhalten. Heute anmelden für MASV und erhalten Sie 20 GB gratis für Ihren nächsten Transfer.
Senden und empfangen Sie große Dateien von überall aus
Holen Sie sich 20 GB zur Nutzung mit dem schnellsten heute verfügbaren Service zur Übertragung großer Dateien, MASV.