DIY-5×4-Großformatkamera

02
„Oh, das wird gar nicht so gut, was Du da machst.“
S. Kilb

Analog fotografieren führt oft zu Begehrlichkeiten.
Bei mir führte der erste Kontakt mit dem Mittelformat zu einer langen serie von Käufen und Verkäufen von Kameras. Begonnen hat alles mit einer Mamiya m645, also eine Kamera mit einer Negativgröße von 6×4,5cm (und ich könnte mich immer noch dafür treten, dass ich sie nach zehn treuen Jahren verkauft habe). Jedenfalls wuchs das Format und derzeit mache ich die meisten Aufnahmen mit 6×9-Kameras… und schiele seit geraumer Zeit in Richtung Großformat.
Aber nur zum Testen eine kaufen?
Nöööööö!

Vorüberlegungen

Eine Kamera – so sagt man – ist nichts als ein lichtdichter Raum. Das stimmt dieser tage nicht mehr so ganz, weil kameras fest verbaute Technik im Innenleben haben, aber vom Prinzip her stimmt das immer noch.
Genau genommen ist eine Kamera ein lichtdichter Raum, der einen bestimmten Abstand zwischen Objektiv und Filmebene definiert.
Dieses Schätzchen hier ist eine Mamiya Super Press 23, eine 6×9-Mittelformatkamera.
02
Das Objektiv deckt also 6x9cm ohne Vignettierung in den Ecken ab.
Bemüht man den Satz des Pythargoras, bedeutet dies, dass, weil (6×6)+(9×9)=(10,82×10,82), mindestens ein Kreis mit dem Durchmesser der Diagonalen, also 10,82 gut damit belichtet werden können sollten werden gehabt gemacht und so.
02
4×5 Inch entsprechen 10,5×12,7cm, also sollte das Objektiv in der Lage sein, Planfilm bis zum Rand kreisrund zu belichten und dann vermutlich irgendwann abzustinken.
Also bei eBay drei 4×5-Plankassetten (s.u.) gekauft und einen Fehlversuch beim Bau gestartet und dann erstmal vier Monate liegen gelassen…
02
Inzwischen habe ich mir (oh, heiliger Baumarkt, gebenedeit bist Du unter allen Geschäften dieser Welt, nur Dir allein will ich meine Seele verschreiben) eine Schieblehre zugelegt.
Also erst mal alles ordentlich vermessen.
Ich gebe hier keine genauen Maße an, weil sich im Laufe des Projektes herausgestellt hat, dass ich ein paar Maße etwas großzügiger hätte definieren können.
Aber die wichtigen Maße sind:
– Breite der Kassette
– Höhe der Kassette bis zur Lichtsperre
– Breite und Höhe der Belichtungsfläche
Dann habe ich im Baumarkt (oh, Baumarkt…!) alles für 9,- aus Paulownia zusägen lassen.
Vorteil: sehr leicht und im Gegensatz zu Fichte bei den Brettern keine abgerundeten Kanten und völlig harzfrei.
02
Hier jetzt die Frontplatte für das Objektiv und die beiden Bretter, zwischen dennen die Planfilmkassette sitzen soll.
02
In der Mitte die Belichtungsfläche ausgesägt und jetzt die Anschlagskante für die Planfimkassette herausgearbeitet.
Dabei habe ich etwas schlampig ein Stück herausgebrochen und mir den Kommentar vom Beginn des Tutorials eingehandelt…
02
Objektiv ausmessen.
Schöne Schieblehre, oder?
Hab‘ ich aus dem Baumarkt!
02
Innen- und Außenmaße übertragen.
Hier habe ich einen mittelschweren Fehler gemacht.
Der innere Holzring sollte mir als Lichtdichtung dienen, hat dann aber die Schnecke des Objektivs blockiert.
(kommt weiter unten)
02
Zum Glück hatte ich noch die Alu-Objektivhalterung vom ersten Bauversuch (Praktisch: Aluschiene mit 2mm Dicke passt exakt in die Bajonettrille des Objektivs. Dabei war aber sehr viel Platz zwischen Objektiv und Außenrand, weswegen ich diesmal das ganze etwas weiter nach außen verlagern wollte.
02
Noch mehr von der Aluschiene für kleine unterlegscheiben als Abstandhalter.
02
BÄMM!
Käffchen, Kippchen, Freudentanz, ein paar Urschreie und Lobpreisungen des Baumarktes und meiner selbst.
02
Hier jetzt der Nicht-machen-Schritt.
Innerer Holzring blockiert Schnecke.
Nicht machen!
02
Frontteil mit Bodenteil und einem Seitenteil verleimen.
02
Mit der Mattscheibe wollte ich es mir etwas einfacher machen. Reduziert natürlich die Anzahl meiner Planfilmkassetten, aber so habe ich die Mattscheibe genau da, wo später der Film ist.
Die Schieber rausgenommen und die wirklich extrem robuste Metallplatte einigermaßen dicht an der Kante mit einer Trennscheibe entfernt.
Ein Rand muss stehen bleiben, damit die Mattscheibe plan liegt.
02
Als Mattscheibe habe ich eine Laminiertüte zugeschnitten.
Passt von der Dicke her ziemlich genau in die Führungsschiene.
02
Nochmal die getrocknete Frontbodenseitenkombi…
02
…und das unschöne Herausbrechen des Holzringes, weil wegen blockiert die Schnecke.
Das Innere der Kamera habe ich mit verdünntem Scriptol geschwärzt, um Reflektionen zu vermeiden.
Hatte gerade nix anderes da, funktioniert aber ganz gut.
02
Alternativansatz:
Ein Papierring bei eingesetztem Objektiv um das Objektiv legen (unbeweglicher Teil).
02
Mit schwarzem Heißkleber auffüllen.
02
Und so passt das.
kommt kein Licht mehr von vorne durch.
02
Kalibrierung:
Objektiv auf die Naheinstellung gestellt und die beiden Halterungsbretter mit der dazwischengeklemmten Mattscheibe so lange vor und zurückbewegt, bis das Bild scharf war.
Vorderteil und Mattscheibe sehr gut festgehalten, während das hintere Teil mit Leim festtrocknete.
Dann Vorderteil verleimt.
02
Seitenteil anleimen, Deckel druff und schön beschwert trocknen lassen (auch hierbei ist eine Super 23 sehr sehr hilfreich).
02
So, heute muss ich noch die Stativgewinde einsetzen.
Film ist bestellt und sollte auch heute kommen.
😀
Fertig!

 

Digitalisierung – stitchen statt scannen

Das ist ja voll umständlich. Was bist Du denn für’n Spacken?
S. Kilb

Aber ernsthaft.
Analog fotografieren und (der Einfachheit geschuldet) digital weiterarbeiten ergibt nur Sinn, wenn man mit qualitativ hochwertigen Digitalisierungen arbeiten kann.
Es bringt nichts, sowas hier durch die Gegend zu wuchten…
01
…wenn man neben beachtenswerten Muckis nicht auch das (in sinnvollem Rahmen – aber dazu später) Beste herausholen kann.
Flachbettscanner taugen meiner Erfahrung nach wenig und da man für hochwertige Scans so ca. 3,- bis 3,50 berappen muss, habe ich eine kleine in-house-Lösung zusammengeschustert, die eventuell für den einen oder anderen interessant sein dürfte.

Zutaten

1. Ein Tablet oder Smartphone als Lichtquelle
2. Ein Makrobalgen samt Objektiv (hier: Novoflex mit M42-Anschluss und 80er Objektiv)
3. M42 auf Canon EOS Adapter
4. DigitaLIZA aus dem Lomo-Shop
5. Kugelkopfstativkopf (geht auch anders, ist aber am Bequemsten)
6. Funkauslöser
7. Stativ mit Reproanschluss
8. Kleines selbstgebautes Tischchen (kürzeste Möbelbeine aus dem Baumarkt, Loch in der Mitte)
9. Eine Digicam
02

Aufbau und machen

Kugelkopfstativköpfe nehmen zwischen den Beinen am wenigsten Platz ein.
02
Mein Adapter ist leider nicht so gefräst, dass es den angeschraubten Balgen in Normalstellung bringt. Nicht wirklich hinderlich, eher ein Wohlfühlproblem.
02
Der komplette Aufbau:
Kamera unter Stativ, Tischchen unter Kamera, DgitaLIZA auf Tischchen, Tablet mit Taschenlampenapp unter Loch im Tischchen.
02
Die Digitaliza ist im Grunde einfach eine Klemmvorrichtung. Imho mit 39,-€ mindestens 20,- zu teuer, aber meine versuche, selber etwas zu basteln sind auf das kläglichste gescheitert, weil absolute Planlage erforderlich ist (ich hatte versucht, aus einer Aluplatte mit Trennscheiben etwas Benutzbares zu machen, aber selbst bei größter Umsicht verbiegt sich da etwas).
Das „Negativ“ hier ist natürlich ein Positiv (Agfa Copex Rapid, im Scala-Prozess entwickelt – toller Film).
02
Auf einem Abschnitt des Bildes, auf dem möglichst die hellsten und dunkelsten Partien vertreten sind mit offener Blende scharfstellen.
02
Digitalzoom hilft bei der Feineinstellung.
Dann Abblenden auf 8 oder 11 und Probebilder machen, um die Belichtugszeit festzulegen (die Belichtungsmessung ist überfordert, weil sie keine Informatiionen vom Objektiv bekommt, also grundsätzlich in M fotografieren. Das Schöne ist: wenn ein Film durchgängig von der Belichtung her gut ist, müssen die Einstellungen nicht noch einmal verändert werden. Negativfilm ist sogar noch einfacher, man muss nur darauf achten, nach oben hin kein Clipping zu bekommen. Da ist ein Histogramm schon ganz hilfreich.
02
Jetzt immer schön behutsam Stück für Stück abfotografieren.
Anfangsecke wählen (vorzugsweise quer am schmalen Ende), mit Funkauslöser und GANZ WICHTIG: mit Spiegelvorauslösung arbeiten. Die Belichtungszeiten liegen irgenwo zwischen 0,5 und 1,5 Sekunden und da kann ein Spiegelschlag ganz fix zu Verwacklungen auf der Filmkornebene führen. Für die beiden Beispielbilder hier im Tutorial habe ich mit dem Balgen die minimale Vergrößerung gewählt, also den Balgen nicht ausgefahren. Mit dem Crop-Sensor der 550D bedeutet das ungefähr, dass ein Abschnittsbild so groß ist, wie ein Kleinbildnegativ, also eine Fläche von 24x36mm mit 18 Megapixeln abgebildet wird. Das ist für die meisten Objektiv-/Filmkombinationen auch reichlich (viele Filme haben ein höheres Auflösungsvermögen als die meisten Objektive – da schlägt die Chemie die Physik). Unten habe ich noch ein Beispiel verlinkt, in dem ich das maximal Mögliche ausprobiert habe – und dabei etwas über dem maximal Vernünftigen gelegen habe).
Wie auch immer:
mit dieser Balgeneinstellung kommt man bei ca. 30% Überlappung der Bilder (nötig für die Stitchsoftware) auf ungefähr 12 Bilder bei 6×9, 6 Bilder bei 6×6 und 4 Bilder bei 6×4.5.
Hier das Beispiel:
oben links die Überlappungsbereiche der ersten beiden Bilder, oben rechts die lose (und nicht ausgerichteten) übereinandergeschobenen Einzelbilder, unten alle Bilder in der richtigen Reihenfolge.
02
jetzt nur noch im Raw-Konverter Kurven anpassen (bei Negativen natürlich die Kurven umkehren – obwohl man das natürlich auch später machen kann).
Farbnegative sind leider die Pest, hier im ersten Schritt einen vernünftigen Weißabgleich hinzubekommen ist quasi unmöglich.
Ich arbeite von hier an bis zum endgültigen Bild mit 16 bit TIFFs. Frisst erstmal eine Menge Platz, aber wenn die RAWs und die EinzelTIFFs gelöscht sind passt das schon.
02
Zum Stitchen benutze ich PTGUI. Photoshop hat dafür auch eine Funktion, aber in PTGUI kann man Bilder, die in der automatischen Erkennung nicht genug Überlappungspunkte haben gut manuell einpflegen. Das betrifft zumeist relativ gleichmäßige Flächen oder größere Himmelsabschnitte.
Obendrein hat PTGUI einen Batch Stitcher, also kann ein Stapel Panoramen mit gleicher Einzelbildanzahl automatisch abgearbeitet werden.
02
Tadaaaaaa:
das fertig gestichte Bild.
Das Negativ ist leider etwas vollgekrümelt gewesen, aber wen die volle 109,4-Mega-Pixel-Version (12679×8630) interessiert: Hier klicken (ca. 50 MB, also nicht mit dem Mobiltelefon runterladen ^^)
Kamera: Mamiya Super 23, Format 6×9
Film: Agfa Copex Rapid, belichtet auf ASA 80, entwickelt im Scala-Prozess
02
Ein erstes Testbild aus meiner neuen Texas-Leica (Fuji GW690 II), Format 6×9. Film: Kodak T-Max 100
Volle Auflösung: Hier klicken (ca. 50 MB, also nicht mit dem Mobiltelefon runterladen ^^)
02
Ein Ausschnitt in 100%
02
Und zum Abschluss ein Beispiel für maximale Auflösung.
Kamera: Mamiya m645, Format 6×4.5
Film: Agfa Copex Rapid, belichtet auf ASA 80, entwickelt im Scala-Prozess
Abfotografiert mit voll ausgefahrenem Balgen, also „bis aufs Korn“.
Bei dem Fotoformat 6×4.5 (und dem feinauflösenden Film) wären meiner Einschätzung nach 75% dessen, was ich gemacht habe noch sinnvoll. Ich werde es wohl mal mit 6×9 ausprobieren.
Was normalerweise kein Mensch weiss: das Format .jpg hat eine Obergrenze von 25.000 Pixeln Seitenlänge.
:)
Das Bild ist mit 16880×22080 Pixeln rund 150 MB groß, daher habe ich es gezippt und zum Download bereitgestellt: Hier klicken
02
Und hier ein kleiner 100%-Ausschnitt:
02
Ich hoffe, dass das Tutorial für ein/zwei/drei Leute interessant und hilfreich ist.
Ich freue mich natürlich über Feedback und Fragen unten in den Kommentaren.

Multi-Fisheye-Lens

Na gut, ich hatte just nur zwei Türspione zur Hand, aber es passen noch mindestens zweie mehr.

Material

Auto Revuenon 1:2,8 35mm Objektiv – analog M42-Anschluss (konnte ich opfern, weil die Blende eh nicht mehr schliesst), Heißkleber, zwei (oder vier, vielleicht sogar fünf) Türspione Abus mit 155° Sichtwinkel und unvermeidbar: schwarzer Glitzernagellack (ich glaube, dabei bleibe ich, das Wort ist so schön).
01
So, Türspione so aufsetzen, dass sie von Vorne gesehen links unten und rechts oben auf der Linse sitzen (oder umgekehrt, je nach gusto).
Und ordentlich mit Heißkleber auffüllen.
Wenn Revue seine Seriennummern mit dem Produktionsjahr begonnen hat, dann ist dieses Objektiv so alt wie ich!
Guter Jahrgang.
Und eines meiner neuesten Analogobjektive… tsk, DDR-Produnktion, gibt schon nach 40 Jahren den Geist auf.
Da lobe ich mir doch die russischen Bruderstaatsoptiken!
02

So sieht das dann aus.
Gut abkühlen lassen.
03

Zwei dicke Lagen Glitzernagellack auftragen (zwischendurch trocknen lassen).
Memo to self: Fingernägel säubern vor Tutorialerstellung.
04

Fert’sch (wie man in Leipzig sagt).
05

Belichtung herausfinden

Glücklicherweise habe ich ein M42-auf-Canon-Adapter, also musste ich jetzt nicht einen Film mit unterschiedlichen Belichtungszeiten verballern und mit Notizen machen.
Leider kommen die Kreise dank des Nicht-Vollformat-Sensors nicht voll auf das Bild.
Der Crop-Faktor bei der 550D macht aus 35mm ungefähr 55mm, also wird nur ein kleinerer Bereich der Linsenmitte abgebildet.
Wie auch immer, für einen Belichtungscheck reicht es.
Wie man hier sieht, schlägt der Belichtungsmesser diverse Blenden-/Zeitenkombinationen vor.
Da ich bei ISO 100 auf 1/25sec gekommen bin, liegt die Wahrheit (nach einigen Messungen mehr) irgendwo zwischen Blende 2,8, 3,5 und 4.
Vermutlich Gefühlssache.
06

Ergebnisse

Da der schäbige Regen meinen Testausflug sabotiert hat nur ein paar Bilder von hier bis zum Supermarkt und zurück.
^^
Um sie interessanter zu machen, habe ich einfach den schrummeligen Lomo-Plugin von GIMP drüberlaufen lassen.

DIY-Not-So-Neutral-Density-Filter

Neutraldichtefilter, kurz ND-Filter, sind einfache gleichmäßig grau gefärbte Filter, die die Menge des Lichtes reduzieren, die durch das Objektiv auf den Sensor/Film fällt.
Das kann praktisch sein, wenn man bei hellstem Sonnenschein mit weit geöffneter Blende (z.B. für Portraits) fotografieren möchte oder einem Wasserfall/Brunnen/Teich/Fluss dieses leicht überstrapazierte weiche Aussehen verpassen möchte.
Für diese simple Aufgabe sind ND-Filter ungemein teuer, ab 40,-€ aufwärts kann man rechnen.
Mit ein bißchen Bastelei (und etwas Glück beim Komponentenkauf) kann man sich für unter 2,-€ etwas ähnlichesbauen.
Ähnlich deshalb, weil es gleichzeitig ein beachtlicher Grünfilter ist.
nichts, was man mit einem Weißableich nicht hinbekommen würde, wenn man digital fotografiert.
Hier eine reich bebilderte Bauanleitung, die m.E. keine Fragen offen lassen dürfte.
(Mit Fotografieren hat das ganze ungefähr 30 Minuten gedauert, ich denke also, das nachbauen dürfte so 15-20 Minuten maximal dauern)

Material

Ein Schweissglas (hier DIN9), günstig zu bekommen bei eBay, ein alter UV-Filter (Grabbelkiste Fotoladen für 0,50 €) oder wahlweise ein leeres Filteradapter, ein Glasschneider, Klebeband, schwarzen Glitzernagellack (ähm, habe mein schwarzes Gewebeband nicht gefunden… aber der Lack tut es auch) und ein kleiner Vorrat frisch gemahlenen und aufgebrühten Kaffee.
01

und so geht es

Als erstes legt man den Filter auf das Schweissglas und klebt mit etwas Sicherheitsabstand die groben Aussenlinien ab.
Das spart hinterher eine Menge Arbeit, um das Glas in Form zu bringen.
01
Dann mit etwas Druck (knirschendes Geräusch) mit dem Glasschneider an den Klebekanten entlanggehen.
Der Begriff Glasschneider ist ein wenig irreführend.
Glasritzer trifft es besser.
01
Jetzt etwas stabiles unter den großen Teil des Glases dicht an die Bruchkante schieben und enthusiastisch auf den Teil klopfen, der entfernt werden soll.
01
Auf der linken Seite ist es bei mir gerade noch so gut gegangen…
Fingerspitzengefühl!
01
Die aufgedruckte Glasbezeichnung lässt sich mit einem Skalpell oder Messer gut wegkratzen.
01
Wenn man wie ich vergessen hat, die Heißklebepistole unter Strom zu setzen kann man jetzt ein bisschen Kaffee schlürfen, während sich das Ding aufheizt.
Den Heißkleber innen und auf der Kante des Filters auftragen und hurtig (wird schnell kalt auf Metall) die Glasscheibe aufsetzen.
01
Hier sieht man den „Sicherheitsrand“ vom Aussenrand des Filters zum Glasrand hin.
01
Dann knirscht man sich mit dem Glasschneider gemächlich von Aussen so dicht wie möglich an den Filter heran.
Ich knirsche mein Glas gerne mit Qualitätswerkzeug „made in Germany“.
^^
Damit darf ich zitiert werden.
01
Jetzt kann das Glas nochmal runter und der Arbeitsplatz sauber gemacht werden.
Es ist extrem wichtig, diese ganzen kleinen Glassplitter zu erwischen.
Die warten sonst tagelang auf eine Chance, sich in eine unvorsichtig über den Tisch gehuschte Hand zu bohren.
01
Die Glasteile, die später innen liegen sollen richtig penibel mit einem Brillenputztuch säubern…
01
…und großzügig von außen mit Heißkleber aneinanderbappen.
Den Kleber ruhig über die gesamte Glaskante ziehen, das deckt eventuelle scharfe Kanten ab.
01
Na, das schluckt doch ordentlich Licht und ist schön grün, oder?
01
Um eventuell von der Seite eindringendes Licht auszuschalten pinseln wir mit unserem in keinem Herrenhandtäschchen fehlenden schwarzen Glitzernagellack einmal rundum über den Heißkleber.
Alternativ (beziehungsweise vorzugsweise) kann man natürlich schwarzes Gewebeband nehmen.
Das sorgt obendrein für zusätzlichen Halt.
dafür glitzert es leider nicht!
Obwohl es einem natürlich freisteht, das Gewebeband noch einmal mit Glitzernagellack anzumalen…
01

Was für ein Monster habe ich denn nun erschaffen?

Das gilt es auszuprobieren.
Am einfachsten geht das, wenn man sich eine gut zu rechnende Belichtungszeit sucht und sich dann die Sekunden hochschläft.
Aus Faulheit habe ich einfach den mäßig schönen Ausblick aus meinem Küchenfenster gewählt und zu meiner Wunschbelichtungszeit von 1/100sec die Blende 5,6 gefunden.
01
Autofokus abschalten und gaaaaaanz vorsichtig den Filter aufschrauben (wenn es hell genug ist funktioniert der Autofokus auch durch den Filter, aber heute halt nicht).
Bei 1/100 sieht man garüberhauptnix, also 1sec (x100).
Noch recht dürftig, oder?
01
Also 10sec (x1000).
Schon besser.
01
20sec (x2000).
joa, aber da geht noch was.
01
40sec (x4000).
Ungefähr die Detailwiedergabe wie bei dem Bild ohne Filter.
Gute Rechengrundlage.
Falls sich jemand über den großen Sprung von 20 zu 40 Sekunden wundert ein wenig Fotowissen am Rande:
die Verdoppelung der Belichtungszeit entspricht einer Blendenstufe.
Mit anderen Worten, wenn jetzt 40 Sekunden unsere optimale Belichtungszeit sind würde eine Verdoppelung auf 80 Sekunden lediglich eine Blende überbelichtung bedeuten.
Es kommt also nicht so auf die Sekunde an.
01
So sieht dann das Bild aus, wenn ein schneller Weißabgleich gemacht wurde.
Kann man sicher mehr Mühe reinstecken, aber bei dem Motiv…
01
Übrigens haben Messucherkameras (hier die Zorki 6, Baujahr 1964) den Vorteil, dass Sucher und Fokussierung unabhängig vom Objektiv sind und mit aufgesetzen Filter bequem scharfgestellt werden kann.
01

Tip zum Schluss

So viel Spaß Kopfrechnen auch machen mag, 1/15×4000 auf die Schnelle ist frohsinnmindernd.
Ein paar sinnvolle Belichtungszeiten kann man sich aufschreiben und mitnehmen.
Für Din9-Gläser z.B.:
1/4000=1sec, 1/2000=2sec, 1/1000=4sec, 1/500=8sec, 1/250=16sec, 1/125=32sec, 1/100=40sec, 1/50=1min20; 1/25=2min40, 1/10=6min40, 1/5=13min20, 1/2=33min20, 1=1h6min40
und da dürfte dann auch der Akku leer sein und das Ende der noch sinnvollen Belichtungszeiten.
^^

Foto zu 3D-Objekt Teil 3: 3D-Objekte im Browser

Nach längerer Pause nun zum finalen Teil des 3D-Tutorials.
In Teil 1 ging es um die Erstellung dder nötigen Fotos und der .obj atei mit Textur, die wir für alle weiteren Schritte benötigen.
Teil 2 zeigt, wie das Objekt in Blender positioniert, als .stl exportiert und dann mit U3D-2-PDF in ein PDF ohne Texturen umgewandelt wird.
Teil 3 wird nun zeigen, wie das Objekt direkt im Browser angezeigt werden kann.

Vorbereitung und ein kleiner Wermutstropfen

3D-Objekte im Browser benutzen WebGL, das leider kein Standard ist.
Der Internet Explorer (sei verflucht, Internet Explorer!) hat seiner Natur gemäß überhaupt keine Unterstützung für WebGL, andere Browser haben die Möglichkeit, WebGL darszustellen, aber bei Ihnen ist es per default ausgeschaltet.Firefox-Einstellungen
Hintergrund hierfür ist, dass rein theoretisch die Grafikkarte des Benutzers überlastet werden könnte, wenn zuviele Berechnungen an sie weitergegeben werden würden.
Das fuchsige an WebGL ist nämlich, das die Rechenarbeit auf dem Rechner des Nutzers und nicht auf dem Server geleistet wird.
Nach allem, was ich herausgefunden habe, könnte dies maximal zum Systemabsturz führen, was wir ja alle aus der guten alten Zeit kennen.

Wie auch immer:
Firefox kann WebGL darstellen, wenn man ihm das befiehlt.
Dafür muss man lediglich in der Adresszeile „about:config“ eingeben, bei der Warnung bestätigen, dass man vorsichtig sein wird, wenn man in den Eingeweiden des Feuerfuchses herumwühlt und dann ungefähr 100m nach unten scrollen, bis man auf den Eintrag „webgl.force-enabled“ stößt.
Der steht auf „false“ und ein Doppelklick ändert das in „true“.
so einfach geht das!

ALso bitte mal kurz machen, sonst hat dieses Tutorial keinen großen Sinn.
Wer keinen Firefox hat möge ihn sich endlich installieren, statt die bösen bösen anderen Browser zu benutzen.

Der Beispielhase

Ich habe den Hasen jetzt nicht in diese Seite direkt eingebundenHaselink – was ginge, aber ich wollte nicht für ganz psychoborg.org eine javascript-Datei laden lassen, die ich nur hier brauche – daher gibt’s den Hasen auf einer schmucklos weissen Seite.
Bitte nicht wundern:
Das Laden dauert eine kleine Ewigkeit (bei mir 20 Sekunden, bis der Hase da ist und 40 Sekunden bis dann auch die Texturen geladen wurden).
Danach einfach den Browser auf Vollbild schalten (F11) und schon kann nach belieben gedreht (linke Mautaste) und gezoomt werden (Mausrad/rechte Maustaste).

soooo, Howdunnit?

Hase ausrichten


Zunächst einmal muss das Objekt aus Blender als .x3d exportiert werden.
Diesmal muss das Objekt allerdings etwas anders ausgerichtet werden als bei der PDF-Fassung, nämlich mit dem Mittelpunkt auf der Kreuzung aller Achsen und mit dem Gesicht dem grünen Pfeil folgend.

exportieren


Dann markiere ich den Hasen mit der rechten Maustaste, gehe auf file->export->X3D Extesible 3D, suche mir einen auffindbaren Speicherort, gebe einen passenden Namen, wie z.B. „Hase“ an und schwupps – hase.x3d ist am rechten Platz.
Einfach soweit, gelle?
Wichtig!
„Apply Modifyiers“ abschalten, sonst wird das Stndard-Licht aus Blender mitexportiert (und so schön ist das nicht).
Ohne die Lampe bekommt man genau das, was man fotografiert hat.
Zusätzlich sollte „selection only“ angetickt sein, weil wir ja auch nur den Hasen wwollen.

jetzt geht es online weiter


Um nun den Hasen samt seinem zeitlos designten Pulli in webtaugliche Form zu bringen gibt eis ein schickes kleines Tool auf der Seite von Instantreality.org.
Wer keine Lust hat zu suchen, hier der direkte Link:
X3D Encoding Converter
Sehr (!) übersichtliche Bedienoberfläche.

Hier müssen zwei Dinge eingestellt werden.
1. input encoding muss auf „XML encoding (X3D)“ gesetzt werden, damit unser Hase eingelesen werden kann und
2. output encoding auf „HTML5“ oder „XHTML5“ gestellt werden, damit wir das bekommen, was wir wollen, nämlich eine kleine einzelne Webseite.

von offline zu online


Jetzt muss die Datei hase.x3d mit dem Editor geöffnet werden und der gesamte Inhalt kopiert (Strg+a, Strg+c) un dann in das „paste input code“-Kästchen auf der Webseite eingefügt werden (Strg+v).
Nicht wundern, das dauert ein bißchen.
Auch wenn es „nur“ Text ist, es ist Text im Wert von rund 11 MB im Falle des Hasen.

Jetzt auf „convert encoding“ klicken und… warten.
Rumsurfen macht in der Zeit wenig Spaß, also einfach mal Pipi machen gehen, Kaffee aufsetzen, Fische füttern o.ä., was einem so 2/3 bis 5 Minuten die Zeit vertreiben kann.
Es kann passieren, das Firefox dann kurzzeitig „keine Rückmeldung“ anzeigt, aber das gibt sich von alleine.

und wieder von online zu offline!


Wenn der Output dann da ist, muss er nur in eine leere Textdatei rüberkopiert werden.
WICHTIG!
Den Code von Hand markieren und zwar so, dass die Zeilen-Zahlen nicht mitmarkiert sind.
Also markieren, kopieren (Strg+c) und in ein neu angelegtes .html-dokument einfügen.
(Einfach den Editor öffnen, Strg+v drücken und bei „Speichern unter…“ „hase.html“ eingeben.
Fertig!

kleine Anpassungen


Unsere HTML-Datei zeigt das Häschen recht klein mit 400×400 Pixeln und vor sehr dunkelgrauem Hintergrund.
Hier sind die Codeschnipsel, die man abändern muss, um etwas Kontrolle zu bekommen.
(Wer mit dem ganzen so zufrieden ist kann es natürlich so lassen)
Für die Größe empfehle ich 800×800 Pixel, weil es in jeden Browser passt.
Wenn man die kompletten Farbangaben ersetzt durch DEF=’SingleColorBackground‘ transparency=’1.0′ kann man einen transparenten Hintergrund einsetzen und (ich will jetzt kein HTML-tutorial anfangen) da dann die Farbe nach gusto über den BODY-Tag steuern.

So, ich hoffe, der eine oder andere mag das nachbasteln und schickt mir einen Link mit seinen Ergebnissen.

Foto zu 3D-Objekt Teil 2: 3D-PDF

In Teil 1 haben wir Hase in ein 3D-Objekt umgewandelt.
Teil 2 bringt Hase (leiderleider ohne Texturen) in ein PDF-Dokument.
Das geht natürlich auch mit Oma, Opa, Onkel, Tante, Mutter, Vater, Freundin, Hund, Katze Maus, Elefant (immer vorrausgesetzt, Euer Motiv kann lange genug stillhalten, damit Ihr die Fotos machen könnt).
Wenn Ihr auf das PDF-Bildchen hier klickt, könnt Ihr Euch das Ergebnis anschauen.
Vorteil dieser Form der 3D-Präsentation ist die weite Verbreitung des Adobe PDF Readers, der seit Version 7 3D darstellen kann.

Erst ein bißchen Software installieren

Ohne ein wenig Vorbereitung geht natürlich nix, und hier ist unsere Einkaufsliste (naja, Besorgungsliste, ist alles Open Source):
MiKTeX von miktex.org herunterladen und installieren
MeshLab von sourceforge.net herunterladen und installieren
Um die Funktionsweise der beiden Programme brauchen wir uns zum Glück nicht zu kümmern, denn praktischerweise gibt es eine Software, die nur auf die beiden Programme zugreifen muss, um unser PDF zu erstellen:
U3D-2-PDF gibt es auch bei sourceforge.net
Obendrein sollte auf Eurem System das .NET Framework 4 laufen (falls nicht, einfach per Windows Update einspielen oder manuell von http://www.microsoft.com/NET/ installieren).
Puh!
WICHTIG:
MiKTeX braucht jetzt noch das Paket movie15, das über Start – Programme – MiKTeX – Maintanance – Package Manager nachistalliert wird.
U3D-2-PDF sucht zwar automatisch nach den installierten Programmen, aber falls es sie nicht findet, kann der Pfad manuell herausgesucht werden.

Export aus Blender

Wir brauchen für unser PDF das Objekt als .stl-Datei.
Das bekommen wir aus Blender generiert, allerdings muss zunächst das Exportformat aktiviert werden.
Unter File – User Preferences – Import-Export findet sich eine Liste mit allen unterstützten Dateiformaten.
Einfach ein Häkchen bei .slt setzen und alles ist flauschig.
Oh, und da wir gerade in dem Menü sind, kann auch gleich ein Häkchen bei Web3D X3D/VRML format gesetzt werden (das brauchen wir für Teil 3 des Tutorials).

Jetzt einfach das Hase.obj importieren und auf ein handliches Format skalieren.

Wichtig: den Hasen richtig ausrichten!

Damit der Hase nachher im PDF auch schön mittig sitzt und sich angenehm rotieren lässt, muss der Mittelpunkt des Objektes genau auf dem Mittelpunkt der Blenderbühne liegen (also da, wo sich die rote und die grüne Line kreuzen).
Damit er nach vorne schaut, muss er nach unten ausgerichtet werden, also liegt sozusagen mit der nase ein Stück „unter dem Boden“.
bei anderen Objekten kann man so natürlich alternativ schon einmal den Blickwinkel festlegen.
(ich hoffe, der Screenshot erklärt, was meinen Worten eventuell nicht möglich ist ^^).

Jetzt kann der Hase endlich exportiert werden!
Das Objekt muss ausgewählt sein, also mit der rechten Maustaste anwählen (dann erscheint ringgsherum eine orangefarbene Markierung).
Jetzt über File – Export – Stl gehen, links im Menü noch „Apply Modifiers“ aktivieren (falls das noch nicht ist), einen sinnvollen Speicherort und Namen wählen und schon hat Blender seine Schuldigkeit getan.

auffi geht’s!

So praktisch U3D-2-PDF ist: es gibt keine vernünftige Dokumentation!
Ebenso wie die richtige Lage in Blender nur durch ausprobieren möglich ist, war ein wenig Probiererei nötig, um nicht die Kamera mitten im Hasen liegen zu lassen.
Hier markiert ist im Menü „3D Options“ „roo“, das scheinbar den Abstand der Kamera zum Mittelpunkt des Objektes definiert.
Per Default ist das 0.158122 und ich habe es für mein Hase-PDF auf 5.0 gesetzt (ausprobieren, was für Euer Projekt am Besten ist).
Der Rest der Einstellungen ist weitgehend selbsterklärend.
Mit Source File wird der Ort Eurer .stl-Datei definiert, mit Target File Speicherort und Name für das PDF.
Page Lauout definiert Hoch-/Querformat und Größe des PDFs.
App Paths beinhaltet die Pfade zu MiKTeX, MeshLab und dem Acrobat Reader.

Tschaaaa, schauma mal!
„Start“ drücken, ein wenig warten und schon haben wir unser 3D-PDF!

Zum Glück muss dieses gesamte Installieren und Einrichten nur ein einziges Mal gemacht werden.
Ist alles am Platze und hat man sich zwei/dreimal durch den Workflow geackert, hat man nach drei Minuten sein PDF.

Mehr Freude beim Anschauen – das 3D-PDF

Beim ersten Öffnen sitzt unser Modell mit perspektivischer Verzerrung unhübsch beleuchtet auf einem weissen Hintergrund.
Beeindruckend nichtsdestotrotz, weil mal es ja mit der Maus hin- und herdrehenund zoomen kann.
Natürlich gibt es auch noch schönere Einstellungen.
Der rote Schalter switcht zwischen orthogonaler und perspektivischer Ansicht hin- und her (orthogonal finde ich besser), das grüne Menü gibt unterschiedliche Beleuchtungen (ich finde „Scheinwerfer“ ganz gut), mit der gelb markierten Schaltfläche kann man sich sein Werk als cooles Gitter- oder Punktemodell ansehen.
Und ganz rechts kann man sich noch eine genehmere Hintergrundfarbe aussuchen.

Das war’s auch für heute.
Nächste Woche kommt dann die direkte Darstellung von 3D-Objekten im Browser mit X3D.
IN FARBE!

Foto zu 3D-Objekt Teil 1: vom Bild zum 3D-Objekt

Willkommen zum ersten Tutorial auf psychoborg.org.
Zum Einstieg in das große Blogabenteuer habe ich mir ein echtes Schmankerl als Thema ausgesucht.

Wie wäre es, wenn man Objekte, Orte, Personen Pflanzen, etc. pp. „echt“ dreidimensional (also dreh- und skalierbar) im Netz darstellen könnte?
Großes Kino wäre das!

Und wenn das auch noch ohne Investition in teure Software ginge?
Hinreissend!

Nun ja.
Zum ersten Mal bin ich vor rund zwei Jahren auf interessante Lösungen für diese Idee gestoßen.
Leider haben alle Ansätze einen (oder zwei) massive Nachteile.
Allen gemein ist, dass eine Kalibrierungsvorlage – meistens eine weisse Fläche mit Punkten, an denen sich die Software bei der Berechnung der 3D-Objekte orientiert – benötigen, was zum einen die Flexibilität auf Null setzt und die Größe darstellbarer Objekte limitiert.
Obendrein kosten sie schon einen Happen Euronen.
Der Vorteil wiederum ist, dass sie alle einen Viewer bereitstellen, mit dem die Objekte ohne größere Zwischenschritte (und irgendwelcher Einstellungsveränderungen seitens der Nutzer) veröffentlicht werden können.
Wer sich ein paar der Programme anschauen mag: iModeller, Object Modeller Pro und das teuerste mit den meisten Features ist Photomodeler Scanner (vermutlich das, was bei CSI eingesetzt wird ^^).

Aber wir wollen es ja umsonst, gelle?

Als erstes brauchen wir die Cloud-Anwendung (macht mich auch nicht glücklich, dass es Cloud-basiert ist) 123D Catch und einen Account.
Einfach auf http://www.123dapp.com/catch gehen und alle Installationsschritte durchgehen.

Als zweites brauchen wir einen Haufen Bilder unseres Objektes aus unterschiedlichen Winkeln.
Ich habe hier mal etwas übertrieben und 39 Aufnahmen von meinem charmanten Assistenten Hase gemacht.

Wichtig dabei ist, dass möglichst jeder Winkel ein paarmal auf den Bildern auftaucht. Besonders bei Lücken im Objekt, wie beispielsweise zwischen Arm und Körper sind ein paar Detailaufnahmen wichtig, weil sonst hinterher eine Fläche gerendert wird, bei der Teile des Hintergrundes sichtbar bleiben.

Bei diesen Aufnahmen bin ich zweimal um Hase herumgerobbt und habe bei einer Runde die Bilder fast aus Bodenhöhe geschossen, bei der anderen Runde leicht von oben und habe dann noch 10/15 Detailaufnahmen gemacht.
Zur optimalen Fotoanordnung gibt es bei 123D Catch auch einige Tutorialvideos, aber im großen und ganzen kann man sagen: ausprobieren und lieber fünf Bilder zuviel als zu wenig machen.
Hilfreich ist auch mit kleiner Blende zu fotografieren, damit die Schärfentiefe so hoch wie möglich ist (Hier: ISO 400, f16 bei 1/60sec).

Nun zu Autodesk.

Autodesk benötigt mindestens drei Bilder, um ein sinnvolles 3D-Objekt zu erstellen.
Also würden drei Bilder theoretisch reichen, um das Gesicht einer Person darzustellen (Hlabprofil links, Halbprofil rechts und am Besten eins leicht von schräg unten, damit unter dem Kinn kein Loch entsteht).
Aber das ist Kleckerkrams und hier soll ein voll drehbares Rundummodell erstellt werden.

Einfach das Programm öffnen (Vernüpfung auf dem Desktop, falls angelegt, sonst raussuchen), auf „create new photo scene“ klicken, den Ordner mit den Bildern Eures Objektes ansteuern, alle Bilder auswählen, die dazugehören und „öffnen“ dücken.
Jetzt steht da „compute photo scene“ und wenn man da draufklickt bekommt man die Auswahl, sich per Mail benachrichtigen zu lassen, wenn die Szene fertig durchgerechnet wurde oder zu warten (wir erinnern uns: die gesamte Rechenarbeit übergeben wir einem Cloudprogramm).
Ist letztlich wumpe, wie man verfährt.

Einfach noch einen sinnvollen Namen für die Szene eingeben (z.B. „Hase“) und schwupps fängt das Programm an, die Projektdaten hochzuladen.
Die Berechnung kann je nach Bildanzahl und Komplexität ein ganzes Weilchen dauern.
Hase hat ein knappes halbes Stündchen gedauert, bis ich per Mail benachrichtigt wurde.
Also etwas Geduld ist nötig.

Ein Klick auf den Link in der Mail öffnet dann die Fotoszene in 123D Catch.
Da meistens irgendwelche Bildbestandteile nicht zu unserem Objekt gehören, kann man sie einfach mit dem Lasso (rot eingefärbt) maskieren und mit einem Druck auf die „Entf“-Taste Löschen und sich so zum eigentlichen Objekt durchknuspern.

Das Grün umrahmte Symbol bietet die Möglichkeit, eine andere Qualität der Renderung anzufordern (Standard ist „Medium“, also da geht noch was!).
123D Catch kann Youtubevideos mit Kamerarundflügen erstellen, wenn man Kamerapfade erstellt.
Da gehe ich jetzt nicht näher drauf ein, weil das ja nicht das ist, was wir hier machen wollen.

Stattdessen gehen wir auf „file“ -> „export scene as…“, wählen .obj als Dateiformat, geben dem ganzen einen sinnvollen Namen und Speicherort (ganz wichtig, das verschwindet per default irgendwo in den Untiefen der eigenen Dateien) und speichern das ab.

Wuhuuuuu! 3D-Objekt in weiterverarbeitbarem Format!

Hier könnte Teil 1 des 3D-Objekte-Tutorials enden, aber zumindest das Programm, mit dem die Weiterverarbeitung möglich wird will ich kurz ansprechen: Blender.
Blender ist ein mächtiges Open-Source-Programm, mit dem man komplette 3D-Animationsfilme erstellen kann (theoretisch können unsere erstellten Modelle also eine Rolle in einem Film spielen).
Für dieses kleine Tutorial und unsere Zwecke jedoch brauchen wir nur Blenders Fähigkeit, die .obj Dateien in anderen Formaten abzuspeichern.
Blender gibt es Zum freien Download unter http://www.blender.org/.

Über „file“ -> „import“ -> „Wavefront (.obj)“ kann dann das Objekt in Blender geladen werden.
das es vermutlich total schräg und riesengroß im Arbeitsbereich erscheint können wir es uns mit „rotate“ und „scale“ irgendwo mittig platzieren.

so!
Soweit zu Teil 1 des 3D-Tutorials.
In Teil 2 wird der Hase zum 3D-PDF!