ÜBER UNS


Wir sind ein Studio für emotionale, hochwertige und einzigartige Filme. Seit 2006 ist unsere Kreativität die treibende Kraft für große und kleine Projekte. Unser Team verknüpft großartige Ideen mit Planbarkeit und Budgetierung.
Durch langjährige Zusammenarbeit mit unserer Partnerfirma Stardust-New-Media bieten wir darüber hinaus ein umfangreiches Netzwerk um Vorhaben jeder Größenordnung zu realisieren.

 

Was wir bieten!

testbildQualitativ hochwertige und emotionale Filme
-Umfangreiche Erfahrungen im Filmgeschäft
-Kundenorientierte Beratung
-Zuverlässigkeit und Transparenz
-Präzise Planung

 

Was wir tun?

Für unsere Kunden aus Industrie, Wirtschaft & Werbung produzieren wir:
-Image-, Werbe- und Produktfilme
-TV- und Kinospots
-Filme für Präsentationen und Messeauftritte

 

Wir haben produziert für:

ARD, ABB, Brillux, Dürr, Eventure, Foschungszentrum Jülich, Ifutec, Kieback & Peter, Parsytec, SEW Eurodrive, ThyssenKrupp ...


Produktion


Bei aller Kreativität legen wir Wert auf passgenaue und individuelle Lösungen, die dem Rahmen des Projekts gerecht werden.

Auftragsklärung

Individuelles Vorgespräch und Konzepterstellung

Vorproduktion

-Stilentwicklung
-Musikrecherche
-Exposé, Storyboard, Text
-Drehbuch
-Casting

Produktion

-Computeranimation (CGI, VFX)
-Dreharbeiten (Studio, Greenscreen, SFX)

POSTPRODUKTION

-Filmschnitt
-Musik, Effektvertonung
-Sprecher
-Compositing von Realfilm und Computeranimationen
-Special Effects


Portfolio


Ideen

Gute Planung hält Zeit und Budget im Griff!
-Konzepte und Skizzen
-Exposé, Storyboard und Drehbuch
-Budgetierungen und Zeitpläne

ideas

Realfilm

Hier schlägt das Herz des Films!
-Planung und Organisation
-Schauspieler und Komparsen
-Dreharbeiten

realfilm

CGI, VFX

Mitreissende Effekte und Visualisierungen!
-3D-Animationen
-3D-Special Effects
-Visualisierung von Workflowprozessen
-Fotorealistische Visualisierungen
-Compositing von CGI und Realfilm

cgi

Schnitt, Ton

Dem Film eine Seele geben!
-Compositing
-Musikalische Gestaltung
-Professionelle Sprecher
-Vertonung
-Filmschnitt

post


Team


  • Sven

    Sven

    Geschäftsführer
    Ideengeber, Projektplaner und Produzent in einem.

  • Patrick

    Patrick

    Geschäftsführungs- und Projektassistent
    Doppelt hält besser!


  • Steve

    Steve

    3D Grafiker
    Kommt aus der Gamesbranche. 3D-Mensch für alles Mögliche.

  • Marcel

    Marcel

    Grafiker
    Nichts geht über eine anspruchsvolle Herausforderung.

  • Manuela

    Manuela

    3D Grafikerin
    Allrounderin im 3D und 2D Bereich.

  • Etienne

    Etienne

    3D Grafiker
    Erst mal'n Kaffee!


  • Silke

    Silke

    Producerin
    Bringt zusammen, was zusammen gehört.

  • Christian

    Christian

    Regisseur/Editor
    Hält auch komplexe Projekte auf der Spur.

  • Roman

    Roman

    Drehbuchautor
    Konzeptioniert und bringt Struktur in Ideen.



  • Christoph

    Christoph

    Systemadministrator
    Hält die Workstations und die Renderfarm am Laufen.

  • Filmteam

    Filmteam

    Kamera, Ton, Licht, Maske/Styling
    Johannes, Martin, Thomas, Berta, Daniela


Kontakt


SONNTAGSFILM

Stefanienstr. 22
76709 Kronau

+49 (0)7253 / 8456-10
info@sonntagsfilm.net

 

So finden Sie uns

Die A5 bei der Anschlussstelle Kronau verlassen. Der Landstraße in Richtung Kronau folgen und an der ersten Ampel links abiegen. Am Denkmal rechts, nach 10 Metern nochmals rechts abbiegen, dann die nächste links, der Straße folgen. Wir sind auf der rechten Seite.

Link zu Google-Maps


Impressum

(gemäß § 5 TMG)

SONNTAGSFILM
Inhaber: Sven Sonntag
Stefanienstraße 22
76709 Kronau
Tel.: 07253/8456-10
E-Mail: info@sonntagsfilm.net
Internet: www.sonntagsfilm.net
Finanzamt Bruchsal
UST.-IDNR.: DE226636594

Haftungsausschluss

Haftung für Inhalte
Die Inhalte unserer Seiten wurden mit größter Sorgfalt erstellt. Für die Richtigkeit, Vollständigkeit und Aktualität der Inhalte können wir jedoch keine Gewähr übernehmen. Als Diensteanbieter sind wir gemäß § 7 Abs.1 TMG für eigene Inhalte auf diesen Seiten nach den allgemeinen Gesetzen verantwortlich.
Urheberrecht
Die durch die Seitenbetreiber erstellten Inhalte und Werke auf diesen Seiten unterliegen dem deutschen Urheberrecht. Die Vervielfältigung, Bearbeitung, Verbreitung und jede Art der Verwertung außerhalb der Grenzen des Urheberrechtes bedürfen der schriftlichen Zustimmung des jeweiligen Autors bzw. Erstellers. Soweit die Inhalte auf dieser Seite nicht vom Betreiber erstellt wurden, werden die Urheberrechte Dritter beachtet. Insbesondere werden Inhalte Dritter als solche gekennzeichnet. Sollten Sie trotzdem auf eine Urheberrechtsverletzung aufmerksam werden, bitten wir um einen entsprechenden Hinweis. Bei Bekanntwerden von Rechtsverletzungen werden wir derartige Inhalte umgehend entfernen.
Datenschutz
Die Nutzung unserer Webseite ist in der Regel ohne Angabe personenbezogener Daten möglich. Der Nutzung von im Rahmen der Impressumspflicht veröffentlichten Kontaktdaten durch Dritte zur Übersendung von nicht ausdrücklich angeforderter Werbung und Informationsmaterialien wird hiermit ausdrücklich widersprochen. Die Betreiber der Seiten behalten sich ausdrücklich rechtliche Schritte im Falle der unverlangten Zusendung von Werbeinformationen, etwa durch Spam-Mails, vor!

BLOG


IMAGE
Team hat Verstärkung
Click the top view icon to see the details

Unser Team hat Verstärkung!

08.08.2016 - Manuela

 
Wir begrüßen unsere neuen Mitarbeiter Patrick und Etienne, die seit Mitte Juli bei uns sind  und unser Team als Geschäftsführungs- und Projektassistent sowie 3D Grafiker unterstützen.

IMAGE
Object/Spline Animation – Running Sushi
Click the top view icon to see the details

Object/Spline Animation – Running Sushi

IMAGE

Gleiche Geschwindigkeit bei Object/Spline Animation

10.09.2015 - Manuela



Das Problem

Für ein Projekt benötigten wir Objekte, die mit gleicher Geschwindigkeit verschieden lange Strecken auf einem Spline zurücklegen. Das ist in 3dsmax nicht so einfach, da jedes Objekt, das auf einem Spline animiert ist, über der Splinelänge eine eigene Geschwindigkeit hat

Als Beispiel benutzen wir ein überdimensionales „Running-Sushi-System“, um es zu verdeutlichen.

Das Script Simple Traffic

Um nicht alles per Hand animieren zu müssen, bedienen wir uns eines Scripts, dem „Simple Traffic“. Das Script sorgt dafür, dass Objekte einen oder mehrere Splines in gleicher Geschwindigkeit befahren. Wenn man die Ausgangsobjekte erstellt hat, generiert man die Splines und einen Point/Dummy. Man stellt dann beim Script ein, wie schnell, wie viele und mit welchem Abstand sich die Objekte auf dem Spline bewegen sollen. Danach benutzt man das Script wie folgt:
- Point/Dummy auswählen
- Im Script „Get Cars To Array“ auswählen
- Den Spline selektieren, auf dem sich das Objekt bewegen soll
- „Spread Cars“ auswählen
- Nun folgen die Points/Dummys dem Spline

Einstellungen im Script

Möchte man die Anzahl, Geschwindigkeit oder etwas anderes ändern, markiert man den Layer und damit auch alle Objekte, dann ändert man im Script die Parameter und klickt auf „Reset Cars“. An den Points/Dummys kann leider nichts direkt eingestellt werden, denn es ist alles vom Script abhängig. Man kann nur konfigurieren, ob die Animation loopen soll oder ob sich das Objekt auch mit dreht (Follow). Für jeden Point/Dummy muss man die Einstellung einzeln vornehmen. Man kann die Point/Dummys nicht einzeln auswählen und animieren. Pausieren, Stoppen oder Verzögern funktioniert nicht, dies muss dann per Hand animiert werden. Ebenfalls können Kollisionen entstehen, auch das wird mit Script nicht abgedeckt. Für das Beispiel Sushibahn konfiguriere ich die Points mit folgenden Einstellungen: „Loop ein“ und „Follow aus“.

Wenn „Loop“ ebenfalls ausgeschaltet wird, muss man später darauf achten, dass man die Keyframes backed, da das Script die Animation nicht bei Null, sondern im Minusbereich der Timeline startet. Hierfür habe ich ein anderes Script benutzt, das „Ani Baked“. Da das Simple Traffic Script keine Keys erstellt und auch nicht erstellen lässt, musste ich ein Workaround schaffen um die Keys an die richtige Stelle der Zeitleiste zu schieben. Falls Kollisionen entstehen, zieht man an den Splines, um sie länger oder kürzer zu machen. Das Objekt ist zeitlich an eine Position gebunden, verändert man also den Spline, ändert sich auch die Zeit und damit der Ort des Objektes. Die Geschwindigkeit der Objekte bleibt hierbei immer gleich. Man legt die Hierarchie der Objekte fest und linkt diese anschließend an einen Point/Dummy. An die Points/Dummys werden die Objekte einzeln und mit Hand gelinkt, um eine größere Variation zu erreichen und sie auch für weitere Animationen benutzen zu können.

An und Abhängen Objekten

Wird gewünscht, dass der Teller des „Running Sushi“ in der Küche bleiben soll, müssen ein paar weitere Schritte vorgenommen werden. Hierfür sollte aber der Teller an einen weiteren Dummy gelinkt sein. Dieser wird an den Dummy, der die Strecke fährt, gelinkt. Mit einem Link Constrain kann man nun dafür sorgen, dass der Teller in der Küche bleibt, nachdem er seine Runde gefahren ist.

Möchte man den Teller leer weiterfahren lassen, funktioniert dies nach dem gleichen Prinzip. Das Sushi bekommt einen eigenen Dummy und einen eigenen Link Constrain. Falls man die Variante mit den Constrains wählt, sollte man darauf achten, dass nichts mehr verändert wird, da man die Objekte ansonsten wieder an den richtigen Platz schieben muss.

Fazit

Im Großen und Ganzen spart man sich sehr viel Zeit, wenn man die Objektbewegung mit dem Script bewerkstelligt. Nur sollte man im Vorhinein schon sehr konkret planen, da Änderungen sehr mühselig sind.
IMAGE
Team hat Verstärkung
Click the top view icon to see the details

Unser 3D-Team hat Verstärkung!

08.09.2015 - Sven


Wir begrüßen unsere neue Mitarbeiterin Manuela, die seit August bei uns ist und unser 3D Team bereits tatkräftig unterstützt.

IMAGE
Spontaner Besuch eines gefiederten Freundes
Click the top view icon to see the details

Spontaner Besuch eines gefiederten Freundes

03.09.2015 - Steve


Als ich neulich, relativ früh am Morgen, in meinem kleinen Büro, bei geöffnetem Fenster und relativ weit herunter gelassenen Jalousien saß, machte mich ein mittelschweres Geräusch auf die Fensteröffnung aufmerksam.

In dieser stand auf einmal ein schwarzer relativ kleiner Vogel, welchen wir später als jungen Raben identifizierten. Dieser zögerte nicht lang und lief augenblicklich auf meinen Zettelstapel auf dem Fensterbrett zu. Mit Eifer machte er sich daran, diesen auseinanderzureißen. Es könnte sein das er wenig Gefallen an meiner Ordnung fand. Erfolglos widmete er sich später dem Bearbeiten eines DVI Adapters, nur um sich später dem Klebezettelpäckchen auf dem gegenüberliegenden Schreibtisch zuzuwenden, den es auch auseinanderzureißen galt. Als auch dieses Unterfangen nicht von Erfolg gekrönt war, hinterließ mein kleiner Freund noch ein paar kleine Pfützen auf dem Schreibtisch ehe er seine letzte Aufgabe startete. Diese bestand darin, eine Schraube aus einem der Computer zu drehen, nur um diese dann aus dem Fenster zu werfen. So ein frecher kleiner Kerl. Und ehe man sich versah war er dann schon wieder weg.

Vielleicht kommt er irgendwann noch einmal wieder…
IMAGE
Ostern
Click the top view icon to see the details

Schöne Osterzeit!

31.03.2015 - Sven


Der Winter ist vorbei und der Frühling bricht an.

Wir wünschen allen Kunden, Lieferanten, Mitarbeitern und Familien ein frohes Osterfest und ein paar schöne freie Tage mit Familie und Freunden.

IMAGE
Puppenspieler brauchen frische Hände – 3DS Max die Antifaltencreme
Click the top view icon to see the details

Puppenspieler brauchen frische Hände –  3DS Max die Antifaltencreme

26.03.2015 - Nicole



Eine Hand

Für unsere Projekte benötigen wir immer wieder computeranimierte Hände, die etwas bedienen, zeigen oder benutzen.
Dieser Artikel ist kein Tutorial, sondern stellt die grundlegenden Ideen einer computeranimierten Hand dar.
Mit dem alten Modell einer Hand gab es immer wieder Probleme bei der Animation. Es zeigten sich zwar nicht wirklich Falten, aber das Modell war topologisch nicht sauber modelliert und auch das Rig war äußerst unhandlich und nicht besonders anwenderfreundlich. Gewisse Anordnungen der Finger beulten das Modell unkontrollierbar aus. Diese Falten mussten teilweise mit Hilfe von Tools, wie Relax, wieder umständlich korrigiert werden. Das nahm viel Zeit in Anspruch und zerrte an den Nerven. Hier war also kein effektives Arbeiten möglich, so dass ein neues Handmodell geboren wurde.

Das Modelling

Angefangen wurde mit einer groben Grundstruktur, die immer weiter verfeinert wird. Aus einer Box entsteht so eine Hand. Während des Modellierens ist besonders auf den richtigen Verlauf der Meshstruktur, die Topologie zu achten, damit die oben beschriebenen Probleme unterbunden werden. Eine gute Topologie ist die Grundlage für die Flexibilität und die reibungslose Animierbarkeit des Modells.

Was ist das eigentlich, die Topologie?

Sie beschreibt den Verlauf der Gitterstruktur im Fluss zu der Modellstruktur, die modelliert werden soll. Die Loops müssen dabei so gesetzt werden, dass sie sich gegenseitig möglichst nicht an Stellen unterbrechen, wo ein geradliniger Fluss sein soll. Umgekehrt müssen Unterbrechungen, z.B. an Gelenken oder Abbiegungen, eingebaut werden um passende Strukturen zu erstellen. Eine regelmäßige Verteilung sowie die Größe der Flächen und das Vermeiden von Triangels sowie N-Gons spielen dabei ebenso eine wichtige Rolle. Wenn es nicht möglich ist Triangels zu vermeiden, sollten diese an Stellen, die keinen oder nur geringen Einfluss haben, platziert werden. Dies bedeutet etwas mehr Aufwand am Anfang, da nicht intuitiv "drauflos" modelliert werden kann, macht aber die Arbeit mit dem Modell später wesentlich einfacher. Es ist frei von Renderfehlern. MeshSmooth und andere Modifikatoren arbeiten problemlos. Die Texturierung wird einfacher und eventuelle Änderungen lassen sich leichter umsetzen.

Aufbau der Bone-Struktur - Knochen aus Bits und Bytes.

War das Modellieren erfolgreich und man hat eine sauber strukturierte Hand vor sich (nicht die eigene), benötigt diese nun ein Skelett. Wir könnten uns ohne Knochen nicht bewegen und würden gar zusammenbrechen. Unsere künstliche Hand bricht zwar nicht zusammen, dennoch benötigt sie eine Grundstruktur für die Bewegungen, die sie später einmal ausführen soll. Dies wird mit den gleichnamigen Tool "Bones" realisiert. Dabei werden die Bones der Struktur des Modells in Form und Größe realitätsnah angepasst. So hat z.B. ein normaler, menschlicher Zeigefinger drei Knochen mit jeweils drei Gelenken. Also werden entsprechend der natürlichen Vorlage die Bones aufgebaut. Die einzelnen Mittelhandknochen wurden für dieses Handmodell nicht berücksichtigt, sie wurden der Einfachheit halber durch einen großen Bone ersetzt. Die Größe der Bones und deren Voreinstellungen (Größe, Fins, Position, etc.) sind relativ wichtig, dazu im Skinning später mehr. Nach dem gleichen Konzept werden auch die restlichen Bones aufgebaut, bis die Hand knochenfest ist.

Von künstlichen Sehnen und Muskeln.

Mit der aufgebauten Knochenstruktur ist man zwar seinem Ziel schon etwas näher, aber das allein reicht leider noch nicht ... In der realen Welt übernehmen Sehnen, Muskeln und das gegebenenfalls vorhandene Gehirn die Bewegungen unserer Hand. Die Sehnen und Muskeln werden in der virtuellen Welt durch ein auf den ersten Blick unüberschaubares Dickicht von Animations-lösungen ersetzt, wie bspw. Ik-Solver, diverse Animation Constraints und Wire Parameters.
Das Gehirn ist dann später der Animator, der mit Hilfe von einer hoffentlich überschaubaren Anzahl an Helpern das Modell animieren kann. Zuerst muß also ein Ik-Setup her, welches man je nach Bedürfnissen auswählt und mit den Bones verknüpft. Die genauen Erläuterungen würden hier den Rahmen sprengen. Dafür gibt es ausführliche Anwender-Dokumente, zu finden unter der Hilfe im jeweiligen Programm. Hat man das Ik-Setup erstellt müssen Helper mit der IK-Chain verbunden werden. Helper, wie der Name schon sagt, helfen bei der Verbindung von Animation Constraints und Wire Parameters mit der Ik-Chain. Sinnvoll miteinander verknüpft, erleichtern sie später das Animieren ungemein. Die Finger wurden z.B. mit Wire Parameters so miteinander verbunden, dass das Beugen eines Fingers durch einen Helfer ermöglicht wird. Eine enorme Erleichterung zum ursprünglichen Rig. Dort musste man jeden einzelnen Helfer animieren. Man kann sich vorstellen, was das für eine Arbeit war ...

Skinning mit den Skin-Modifkator - oder: Wie entferne ich Falten ohne Botox?

Das Skinning ist im Grunde nichts anderes als Fleißarbeit, die jedoch sehr wichtig ist. So kann ein liebloses Skinning ebenso unschöne Verzerrungen hinterlassen wie ein unsauber modelliertes Mesh. Der Modifikator stellt die Envelopes, basierend auf den vorher gemachten Bone-Einstellungen her. Die Envelopes definieren den beweglichen Rahmen jedes einzelnen Vertices des Meshes auf Grundlage von Gewichtungen 0-1. 0, die im Envelope selektierten Vertices bewegen sich überhaupt nicht und 1, die Vertices genießen die absolute Bewegungsfreiheit. Da die absolute Freiheit, wie im richtigen Leben fast immer zu Fehlverhalten führt, muss auf einen weichen Übergang geachtet werden, will man keine unschönen Verzerrungen im Mesh.
Hat man beim Aufbau der Bones sorgfältig gearbeitet, erspart man sich viel Basisarbeit. Verlassen kann man sich aber nicht immer darauf. Der eine oder andere Ansatz geht auch schon mal daneben. 3DS Max scheint zuweilen einige Dinge anders zu interpretieren als man es als User erwarten würde ... Nun kommt die eigentliche Feinarbeit. Die Weights, also die Gewichtungen, welche die Bewegung bei der Animation beeinflussen, müssen teilweise manuell optimiert werden.
Dabei geht man am besten vor wie folgt: Zuerst animiert man z.B. den Zeigefinger in verschiedenen Positionen. So kann man besser die Veränderungen während des Arbeitens sehen. Frame 0 wäre also die Ausgangsstellung des Zeigefingers während Frame 10 eine gebeugte Position darstellt. Meistens sieht man sofort wo eine falsche Gewichtung vorliegt und kann diese "on the fly" korrigieren. Dies macht man so lange, bis man eine weiche Bewegung des gesamten Modells hat und der Meinung ist: Das könnte eine echte Hand sein. Puuuh, ganz schön viel Arbeit!

Fazit - So viel Aufwand ...

Hat sich die Mühe denn wirklich gelohnt? Definitiv, ja! Es lässt sich sicherlich immer noch einiges verbessern, doch für den momentanen Einsatzbereich der Hand ist das Ergebnis vollkommen zufriedenstellend. Nicht zuletzt aufgrund der gesammelten neuen Erfahrungen. Allerdings ist eine echte Hand immer noch das Allerbeste. Die Natur ist eben schwer zu toppen. Aber wer weiß, vielleicht gibt es hier schon bald ein Update für eine getunte Hand mit noch besseren Eigenschaften :). Stay tuned!
IMAGE
Quadro -vs- Geforce Grafikkarten
Click the top view icon to see the details

Quadro -vs- Geforce Grafikkarten

18.12.2014 - Sven



Was ist Quadro oder Geforce?

Von dem Grafikkarten Hersteller Nvidia gibt es bei den Grafikkarten zwei Serien. Die Consumer/Gamerserie heißt Geforce und die professionelle Serie heißt Quadro. Wir wollten diese beiden Serien im reinem GPU Rendering vergleichen. Als Renderengines verwendeten wir Octan und Iray in 3dsmax 2014 SP5. Dieser Artikel beschreibt nur unser Rendering Szenario und ist kein genauer Vergleichstest. Um wirklich vergleichen zu können müsste man viele Dinge beachten zum Beispiel, dass die Consumerkarten teilweise höher getaktet werden und das es unterschiedlichen Kühllösungen gibt, so dass der Wechsel zwischen dem Basistakt und Bootsstakt anders ausfällt. Somit ist der Vergleich nur aus unseren Workaround.

CUDA Cores

Für das GPU-Rendering auf den Grafikkarten wird CUDA verwendet. CUDA wird verwendet um Programme auf Graphikprozessoren (GPU) zu berechnen. Anzahl der Rechenblöcke auf der GPU wird CUDA Core genannt. Im Allgemeinen rechnet eine Grafikkarte mit CUDA Cores in stark parallelisierbaren Programmabläufen wesentlich schneller als ein CPU. Die Raytracing-Engines Octan und Iray sind genau diese parallelisierten Rechenoperationen. Folgende Grafikkarten haben wir verwendet:

- Quadro K6000: 2880 Cudacores, Architektur: Kepler, PNY
- Geforce 980:     2048 Cudacores, Architektur: Maxwell, Palit Jetstream
- Geforce 780ti:   2880 Cudacores, Architektur: Kepler, Asus Matrix
- Geforce Titan:   2600 Cudacores, Architektur: Kepler, Nvidia/PNY

Szenerie

Als Testszene haben wir ein Fahrzeug vor eine Backplane verwendet. Ziel war es die Szene mit 6000 Rays zu rendern. Je mehr Rays verwendet werden umso mehr wird das Rauschen gedrückt, welches durch das Raytracingrendering entsteht. Das heißt je länger das Rendering andauert je mehr Rays werden berechnet und je genauer wird die Lösung, also das Bild. Für die Hardware haben wir jede der 4 Grafikkarten in den gleichen Rechner eingebaut und immer die neusten Geforce oder Quadrotreiber installiert. CUDA wurde dann jeweils im Treiber aktiviert. Für das oben zu sehende Bild haben die Grafikkarten folgende Zeiten benötig:

- Geforce 780ti:   10:21 Minuten
- Quadro K6000:  11:23 Minuten
- Geforce Titan:   11:57 Minuten
- Geforce 980:      16:19 Minuten

Fazit

Dieser Vergleich ist aus unserem alltäglichen Workaround entstanden. Die schnellste Grafikkarte im Raytracing-Rendering ist die Asus Matrix Geforce 780ti. Sie ist auch vom Hersteller um 131 MHZ im Basistakt übertaktet. Der neue Maxwell Architektur (Geforce 980) hat weniger Cudacores und ist somit am langsamsten. Bei reinem GPU Raytracing-Renderings scheint es keinen Unterschied zwischen Quadro und Geforce zu geben. Bei mathematischen-medizinischen Berechnungen oder CAD Anwendungen werden die Quadrokarten ihre Berechtigung haben. Weitere Vorteile der Quadrokarten sind die 10-Bit Ausgabe, das Quadro-Sync und die hohe Speicherausstattung
Was interessant ist, dass die Quadrokarten mit höherer Double-Precision arbeiten, und deswegen eigentlich schneller sein müsste. Aber die Double-Precision scheint für das GPU-Rendering auf Iray und Octan nicht so entscheidend zu sein.
IMAGE
Schöne Weihnachtszeit
Click the top view icon to see the details

Schöne Weihnachtszeit!

02.12.2014 - Sven


Es ist schon wieder so weit. Das Jahr ist fast um und Weihnachten steht vor der Tür!

Wir wünschen allen Kunden, Lieferanten, Mitarbeitern und Familien ein schönes Weihnachtsfest und schon einmal einen guten Rutsch ins neue Jahr!

IMAGE
Chromatische Aberration – Fusion
Click the top view icon to see the details

Chromatische Aberration - Fusion

23.10.2014 - Sven


Projektzeitraum: Oktober 2014
Programme:
- Fusion

Für die Fusion-Profis:

Die chromatische Aberration ist ein Abbildungsfehler der Linse auf einem Foto. Es ist eine rot/grün/blau Verschiebung und kommt durch die verschiedenen Wellenlängen der Lichtfarben und deren Brechungsverhalten durch die Linse. Mit hochwertigen und entsprechend teuren Objektiven kann man das verhindern. Somit ist die chromatische Aberration bei Fotographen ungewollt, kommt aber oft in Bilder vor, die mit Kompaktkameras geschossen wurden.

Wofür?

In der 3D-Animation wird manchmal eine künstliche chromatische Aberration erzeugt um einen realistischen Gesamteindruck zu erzeugen, als wäre dieses Rendering mein einer kleinen Kamera fotografiert worden.
Der Effekt kann in der Postproduktion erzeugt werden. Es folgt ein kleiner Workshop, der zeigt, wie man diese chromatische Aberration mit Fusion erstellt.

Entsättigen

Als erstes wird in den Flow von Fusion ein Rendering geladen. Über die ColorCorrection (CC) entsättigen wir das Bild. Es folgt eine ColorCurve (CCv) die das Bild in schwarz/weiß Bild umwandelt. Dafür wird die Kurve im weißen/linken Bereich steil gesetzt. Dabei ist zu beachten, dass helle Flächen ausbrennen sollten. Denn an den Rändern der ausgebrannten Flächen entsteht später die chromatische Aberration. Nun geht der Flow zwei Wege.

Weg eins (der obere)

„Weg eins“ ist der Kompliziertere. An die ColorCurve (CCv) wird ein Blur angeschlossen. Dieser Blur wird auf 0.1 gestellt. Dann spaltet sich der Flow auf. Mit drei ColorGains holen wir uns die 3 Farben grün, rot und blau. Über ein Transform (Xf) Tool versetzten wir das grüne Bild um einen kleinen Wert, wie zum Beispiel X=0.5005. Das Gleiche machen wir mit rot X=0.4995 und blau Y=5.005. Diese drei Farben mischen wir mit Merge (Mrg) im Mode Screen. Nun haben wir ein schwarz/weiß Bild mit verschobenen Farbkanten an den schwarz-weißen Übergängen.

Weg zwei (der untere)

Nun gehen wir „Weg zwei“ von dem ColorCurve (CCv) mit dem wir das Bild in schwarz/weiß umgewandelt haben. Danach setzten wir ein ChannelBoolean (Bol) und verbinden die ColorCurve mit dem Foreground-Eingang des Channelbooleans. Den letzten Merge (schwarz/weiß mit Farbkanten) aus „Weg eins“ nehmen wir und schließen den an den Background des ChannelBooleans an. Im ChannelBooleans stellen wir die Operation auf Subtract. Das war es schon. Fusion zieht jetzt das schwarz/weiß Bild und das schwarz/weiß Bild mit den Farbkanten voneinander ab. Was übrig bleibt sind die Farbkanten.

Zusammenbau

Diese Farbkanten brauchen nur noch mit einem Blur auf das ursprüngliche Bild gelegt werden. Dafür wird ein Merge (Mrg) verwendet. Hier kann man herumprobieren welche Mode die besten Ergebnisse hat. Ich verwende meistens Screen oder Normal.

Abschlussbetrachtung

Der Effekt sollte nicht zu stark eingesetzt werden und erst auf dem zweiten Blick zu sehen sein. Auf dem obigen Hauptbild zu diesem Workshop sind die Farbverschiebungen an den Fensterrahmen erst bei genauer Betrachtung zu sehen. Denn eigentlich ist es ein Bildfehler und sollte auch als solches betrachtet werden. Die künstliche chromatische Aberration soll dem Bild nur einen Hauch in Richtung Realismus schieben.
IMAGE
Oculus Rift – virtuelle Realität: Teil 2
Click the top view icon to see the details

Oculus Rift, ein Abstecher in die virtuelle Realität

15.10.2014 - Steve


Teil 2



Development Kit 2

Das neue Development Kit 2 enthält nun viele Verbesserungen. Zum einen wurde die Auflösung des Displays von 720p auf 1080p glatt verdoppelt. Zwar ist nun ein OLED Panel mit einer Pentilematrix von Samsung verbaut, welche keine gleichmäßige rot-grün-blau Verteilung der einzelnen Pixel mehr zulässt, doch das Bild wirkt trotzdem höher aufgelöst und zeigt feinere Details. Zum anderen wurde der Schmiereffekt bei Kopfbewegungen durch die neue Low Persistence genannte Technik eliminiert. Bei dieser wird hinter jedes Vollbild ein komplett schwarzes Frame gelegt, so dass jedes Pixel im Panel nur ein einziges Bild lang seine Farbinformation behalten kann. Diese Technik ist derzeit nur mit OLED's möglich, da diese selbstleuchtend sind. Die Pixel des im DK1 verbauten LCD Panel hingegen leuchten, auch wenn sie abgeschaltet werden, noch für wenige Millisekunden nach und erzeugen damit den genannten Schmiereffekt. Dies liegt unter anderem auch an der im Panel verbauten und der LCD Technik geschuldeten Hintergrundbeleuchtung, welche die Abschaltung nach jedem Frame und das Einfügen eines Schwarzbildes gar nicht erlaubt. Die wohl gravierendste Neuerung des DK2 ist, dass nun mittels einer verbauten Kamera die Position des Kopfes im Raum bestimmt werden kann. Diese Technik wird Positional Tracking genannt. Natürliche Bewegungen, wie das Vorbeugen oder seitliches um die Ecke Schauen, sind hiermit endlich möglich. Die Erfassung dessen ist sehr wichtig, da die korrekte Umsetzung der natürlichen Bewegungen essentiell für ein Wohlbefinden in der virtuellen Realität ist, womit wir auch schon zum Kernproblem von Virtual Reality, kurz VR kommen.

Probleme!?

Mit der neuen Art Welten zu erleben treten leider auch bisher unbekannte und spezifische Probleme auf, welche die Entwickler lösen müssen. Eines der schwerwiegendsten Probleme betrifft die Motionsickness, eine Art Seekrankheit, welche bei Benutzung einer VR Brille zu starker Übelkeit führen kann. Diese Übelkeit hält bei stark anfälligen Personen mitunter sehr lang an und trübt das Erlebnis extrem stark. Auslöser dieser Übelkeit sind vielfältiger Natur. Zum einen kann es sein das der an die Brille angeschlossene Rechner zu langsam ist und somit das Bild zu ruckhaft ausgegeben wird. Zum anderen kann, wie im Fall der DK1, die Latenz der Sensoren zu gering sein, so dass Bewegungen nicht augenblicklich umgesetzt werden. Sehr große Probleme bereitet vor allem die Bewegung im Raum, wenn der Nutzer diese mittels Tastatur und Maus oder eines Controllers umsetzt. Das Gehirn versteht nicht, dass wir physisch noch am Schreibtisch oder der Couche sitzen, uns optisch aber fortbewegen. Darüber hinaus werden Entwickler auch generell mit der Form der Eingabegeräte vor neue Herausforderungen gestellt. Die virtuelle Realität grenzt sich nun einmal stark von der bisher gewohnten Konsumierung von Medien aller Art ab. Diese neue Form der Nutzung setzt gänzlich neue Ansätze in Sachen Interaktion mit der Welt voraus. Befinden wir uns in einem virtuellen Raum, erwarten wir aus unseren Erfahrungen der uns umgebenden Realität, die gleiche Umsetzung in der virtuellen Welt.

Ansätze hierfür sind vorhanden und in Entwicklung. Gute Beispiele für die Umsetzung der natürlichen Fortbewegung auf zwei Beinen stellen zum Beispiel die Virtuix Omni oder der Cyberith Virtualizer dar, welche beide eine Art Laufkäfig darstellen, in dem man sich nach allen Richtungen bewegen, sich hocken und sogar springen kann. Für Interaktion mit den Händen sind Entwicklungen, wie der Leap Motion Controller interessant. Cyberhandschuhe mit haptischem Feedback werden seit Jahren weiter entwickelt. Selbst Eingabegeräte, wie die Razr Hydra, ein Bewegungscontroller ähnlich der Nunchuck der Konsole Wii von Nintendo oder deren Nachfolgeprodukt, das STEM System, stellen eine große Entwicklung in Sachen Bedienung für VR dar. Darüber hinaus gibt es noch viele weitere Ideen und Projekte, welche derzeit schon per Kickstarter finanziert werden. Selbst an einer direkten Steuerung mit dem Gehirn wird derzeit geforscht, sogar mit Aussicht auf Erfolg.

Zukunftsaussichten

All diese Entwicklungen bringen große Fortschritte aber lässt sich heute schon erahnen was alles möglich sein wird? Was können wir von der Zukunft erwarten? Ist es das Holodeck aus Star Treck? Werden wir vielleicht eines Tages mittels Gehirninterface an einen Großrechner angeschlossen, wie im Film Matrix/Surrogates? Verweilen wir in neuartigen Spielhallen, um uns in virtuellen Realitäten die Freizeit versüßen zu lassen? Müssen wir für eine Achterbahnfahrt noch in den Freizeitpark gehen? Dies alles kann wohl heute noch niemand beantworten. Was wir aber definitiv in naher Zukunft erwarten können ist eine großartige Erfahrung, ein Mittendringefühl, eine neue Art des Erlebens, Staunens und Entdeckens und dies nicht nur für Unterhaltungszwecke.
IMAGE
Oculus Rift – virtuelle Realität: Teil 1
Click the top view icon to see the details

Oculus Rift, ein Abstecher in die virtuelle Realität

14.10.2014 - Steve


Teil 1



Oculus Rift, dies ist der Name, welcher die Zukunft der visuellen Darstellung in einigen Bereichen revolutionieren könnte. Mit diesem Gerät haben wir uns eine Zeit lang beschäftigt und konnten Erfahrungen und Schlüsselmomente sammeln. Aber was ist Oculus Rift überhaupt?

Aufbau der Oculus Rift

Die Rift ist ein Bildausgabegerät in Form einer Taucherbrille, welche man sich wie ebendiese auf den Kopf setzt. Das Gerät gehört zur Kategorie der Virtual-Reality-Brillen. Im Gehäuse ist ein Display quer verbaut, welches ein für jedes Auge leicht versetztes und verzerrtes Bild darstellt. Dieses Bild wird von einem angeschlossenen Computer an die Brille geschickt. Zwei Linsen, eines für jedes Auge, entzerren das Bild und stellen es den Augen zur Verfügung. Der Abstand zwischen diesen Linsen und den Pupillen des Nutzers ist sehr gering. Somit wird ein großer Blickwinkel garantiert, welcher mit 110 Grad höher als der aller bisheriger Datenbrillen ausfällt. Ausgenommen sind extrem teure professionelle Lösungen für horrende Summen, wie sie von Wissenschaft und Militär eingesetzt werden. Doch das Bildsystem ist noch nicht alles was dieses Gerät auszeichnet.

Komplettiert wird das Gesamtsystem mit einer Reihe an Sensoren zur Erfassung der Kopfrotation und mit der neuesten Version hinzugekommen, einer Kamera für die Lage und Bewegung im Raum. Hat der Anwender die Brille auf dem Kopf und startet eine dafür ausgelegte Anwendung, wie zum Beispiel eine virtuelle Landschaft, so hat er den Eindruck mitten in dieser zu stehen. Der räumliche Eindruck ist grandios und lässt den Nutzer vor allem beim erstmaligen Ausprobieren erstaunen. Bewegt derjenige nun noch seinen Kopf, zum Beispiel um sich umzuschauen, dann messen die Sensoren in der Rift die Bewegungen und Position. Auf diese Art und Weise kann man sich ganz natürlich und so gut wie verzögerungsfrei in den virtuellen Umgebungen umschauen und sich von den Objekten darin einen Eindruck verschaffen wie es bis dahin unmöglich war.

Wofür ist Sie geeignet?

Gebäude, Fahrzeuge, Umgebungen oder auch ganz kleine Objekte wie Blumen oder Wohnungseinrichtungsgegenstände lassen sich wunderbar in der Größe und auch ihrer Beschaffenheit untersuchen. Vor allem fällt das Abschätzen der Ausmaße sehr leicht. Ein einfaches Beispiel wäre ein Objekt, wie zum Beispiel ein großer Baum, welcher neben einem Haus in einer Landschaft steht. Dieser wirkt schon auf dem Monitor groß und eindrucksvoll. Jedoch erst und auch nur mit einer Virtual Realitybrille, wie der Oculus Rift, kann sich der Zuschauer von der wahrhaftigen Größe und Anmut des Baumes wirklich überzeugen. Das Gefühl sich mit der Rift in einer dieser Welten umzuschauen ist extrem beeindruckend und immersiv.

Für welche Anwendungen ist die Oculus Rift prädestiniert? In erster Linie werden Anfangs speziell dafür ausgelegte Games profitieren, in welchen sich der Spieler wirklich in die Welten, die er bereist, hineinversetzt fühlt. Er spielt das Spiel nicht nur, sondern ist ein Teil davon. Eine zweite wichtige Anwendungsform wäre in der Architektur oder Produktvisualisierung zu finden. Architekten können ihre Bauwerke schon vor dem eigentlichen Bau betreten und sich einen großartigen Eindruck von dem verschaffen, was sie selbst erstellt haben. In der Autobranche kann sich der Kunde virtuell schon einmal vorab die Konfiguration seines Fahrzeuges anschauen. Produkte aus der Industrie, wie große Bagger, Baumaschinen, Zentrifugenanlagen oder gigantische mechanische Bauteile können naturgetreu begutachtet werden, ohne das diese aufwendig zum Präsentationsort, wie zum Beispiel einer Messe, gebracht werden müssen. Die Möglichkeiten sind vielfältig und es ist derzeit kaum absehbar welch geniale Ideen erfindungsreiche Genies mit der virtuellen Realität in Zukunft umsetzen werden.

Oculus Rift-Varianten

Bislang sind von der Oculus Rift zwei Versionen erschienen. Einmal das Development Kit 1, auch DK1 genannt und nachfolgend das aktuelle DK2. Eine finale Version für normale Konsumenten, die CV1, wird Ende nächsten Jahres erwartet. Das DK1 wurde im Jahr 2012 erfolgreich bei Kickstarter finanziert nachdem der Prototyp des Erfinders Palmer Luckey für Furore gesorgt hatte. 2013 orderten wir das Gerät und wurden somit Teil der weltweiten VR Community. Vor 2 Monaten bekamen wir das Nachfolgegerät, das DK2, welches sich erheblich vom DK1 unterscheidet und viele Verbesserungen mit sich bringt. In der ersten kaufbaren Version werkelte noch ein 720p Display. Da sich beide Augen diese relativ geringe HD Ready genannte Auflösung teilen mussten bedeutete dieser Umstand, dass man ein relativ stark verpixeltes Bild zu sehen bekam. Der Effekt wird auch Screendoor oder Fliegengittereffekt genannt, da man beim Betrachten das Gefühl hat durch ein solches zu schauen. Auch verschmierte das relativ langsame LCD Display bei Kopfdrehungen das Bild relativ stark.

...weiter in Teil 2
IMAGE
Man on the Moon
Click the top view icon to see the details

Man on the Moon

19.07.2014 - Steve


Projektzeitraum: März-Juni 2014
Programme:
- Autodesk 3dsmax
- Nvidia Mental Ray
- Adobe Photoshop


Update in der Galerie!
Das hier gezeigte Bild eines Filmstudios mit dem Thema Mondlandung war zu anfangs komplett anders geplant. Ursprünglich sollte eine Piratenszene im Studio zu sehen sein. Die Mondlandung aber erwies sich als das interessantere Motiv. Im Laufe der Entwicklung wurde die Anordnung aller Objekte im Bild, deren Beschaffenheit und Ausleuchtung ständig erweitert und verfeinert. In der Galerie befindet sich ein hochaufgelöstes Rendering der Szene.
Link zur Galerie
IMAGE
CGI gegen die Realität
Click the top view icon to see the details

CGI gegen die Realität

03.07.2014 - Sven/Christian


Projektzeitraum: Mai 2014
Programme:
- Nvidia Mental Ray
- Nvidia Iray
- Otoy Octane
- Chaos Group Vray
- Realität


Schon im März diesen Jahres hatten wir einen CGI-Workshop, aber erst jetzt komme ich dazu einen kurzen Post dazu zu schreiben. Was uns interessiert, ist die Tatsache, wie nah die Renderer Mental Ray, Iray, Vray und Octane an die Realität herankommen. Es ist also der Kampf der einzelnen Rendersysteme gegen die Realität!

Workshop

Um die Sache wirklich vergleichbarer zu machen, haben wir nur einfache Szenen erstellt, zwei Chromkugeln, ein Glas auf einem Tablet und auf einem weißen Würfel. Diese Objekte standen in einer weißen Hohlkehle. Für die Ausleuchtung haben wir Strahler und Softboxen verwendet.
Im ersten Schritt haben wir die Schattenberechnung der einzelnen Renderer angeschaut. Danach folgte das Colorbleeding (Farbweitergabe bei Reflexionen). Im dritten Schritt haben wir uns glatte und verschwommene Reflexionen vorgenommen. Als letztes wurde geprüft wie gut die Renderer Caustics abbilden.

Das Ergebnis?

Iray und Octan schneiden hier ziemlich gut ab, da die Renderer mit reinem Raytracing funktionieren.
Mental Ray und Vray kommen mit ihren Algorithmen (Final Gather, Photonenmap, Lightmap…) ziemlich nah an die Realität heran. Sie sind oft auch schneller, da die mathematische Näherung häufig einfacher zu rechnen ist. Reine Raytracingrenderer haben ein hohes Rauschverhalten. Um dieses zu drücken, müssen viele Iterationen gerechnet werden, was auch länger dauern kann als bei Mental- und V-Ray.

Wir möchten uns bei Photostudio Huber (Karlsdorf) für die tatkräftige Unterstützung bedanken.
IMAGE
HairFlair
Click the top view icon to see the details

HairFlair

12.06.2014 - Sven


Projektzeitraum: April-Juni 2014
Programme:
- Autodesk 3dsmax
- Nvidia mental ray
- Adobe Photoshop
- Fusion


Für ein hochwertig geplantes Ladenlokal wurden vorab Visualisierungen erstellt. Das Ambiente des geplanten Friseurlokals sollte edel und harmonisch wirken. Daher musste geklärt werden, ob die geplante Einrichtung und das zu mietende Ladenlokal zusammenpassen. In der Galerie befindet sich ein hochaufgelöstes Rendering.
Link zur Galerie
IMAGE
Gebäude für Produktpräsentationen
Click the top view icon to see the details

Produktpräsentation

02.06.2014 - Sven


Projektzeitraum: Mai 2014
Programme:
- Autodesk 3dsmax
- Nvidia mental ray


Update in der Galerie!
Bild aus einem Teaser für Hausschutzstoffe. Die einzelnen Räume werden im Film angeflogen und Produkte darin vorgestellt. Um die einfache Benutzung der Produkte zu unterstützen, wurde als Filmstil ein verspielter Computerspiel-Look gewählt.
Link zur Galerie

IMAGE
Lensflares in Fusion
Click the top view icon to see the details

Lensflares in Fusion

24.05.2014 - Sven


Projektzeitraum: Mai 2014
Programme:
- Fusion

Für die Fusion-Profis:

Radiale Ringe

Ein kurzer Kniff, wie man in Fusion nette Lensflare Ringe anlegt. Es geht hauptsächlich um den äußeren radialen Ring. Als erstes setzen wir den Node "Hot Spot" in den Flow ein. Damit dieser Node funktioniert, muß davor ein schwarzer Background-Node gesetzt werden. Der Trick besteht nun darin, in dem Node "Hot Spot" unter dem Tap "Color" zwei Kurvenerhöhungen zu erstellen, wobei der Erste höher ist als der Zweite. Dadurch werden ein äußerer stärkerer Ring und ein innerer schwächerer Ring erzeugt. Um den Regenbogeneffekt zu erzielen, müssen die Farben rot, grün und blau ineinander verschoben werden. (s. Grafik 2)

Senkrechte Unterbrechungen

Die senkrechten Unterbrechungen des Rings erhalten wir, indem wir unter "Radial Density" eine Glockenkurve erstellen. Diese kann unter "Radial Repeat" 300 mal wiederholt werden. Das innere Highlight des Lensflares wird durch weitere "Hot Spots" an der gleichen Stelle erzeugt. Diese werden im Node "merge" zusammengefügt.

Ich hoffe dieser Post findet vielfältige Anwendungen!
IMAGE
Meetingroom
Click the top view icon to see the details

Meetingroom

03.05.2014 - Steve


Projektzeitraum: April-Mai 2014
Programme:
- Autodesk 3dsmax
- Nvidia mental ray
- Adobe Photoshop


Update in der Galerie!
Erstellung einer Architektur-Visualisierung: Dabei war die Ausleuchtung des Parketts am Übergang von Boden zur Wand besonders wichtig.
Link zur Galerie

IMAGE
Hello World
Click the top view icon to see the details

Hello World

01.04.2014 - Sven


Wir haben den BLOG gestartet!

Wenn Zeit ist, werden wir hier Bilder aus Projekten, Tricks und Tipps sowie andere interessante Dinge posten. Schauen Sie einfach mal vorbei!