Digitalisierung – stitchen statt scannen

Das ist ja voll umständlich. Was bist Du denn für’n Spacken?
S. Kilb

Aber ernsthaft.
Analog fotografieren und (der Einfachheit geschuldet) digital weiterarbeiten ergibt nur Sinn, wenn man mit qualitativ hochwertigen Digitalisierungen arbeiten kann.
Es bringt nichts, sowas hier durch die Gegend zu wuchten…
01
…wenn man neben beachtenswerten Muckis nicht auch das (in sinnvollem Rahmen – aber dazu später) Beste herausholen kann.
Flachbettscanner taugen meiner Erfahrung nach wenig und da man für hochwertige Scans so ca. 3,- bis 3,50 berappen muss, habe ich eine kleine in-house-Lösung zusammengeschustert, die eventuell für den einen oder anderen interessant sein dürfte.

Zutaten

1. Ein Tablet oder Smartphone als Lichtquelle
2. Ein Makrobalgen samt Objektiv (hier: Novoflex mit M42-Anschluss und 80er Objektiv)
3. M42 auf Canon EOS Adapter
4. DigitaLIZA aus dem Lomo-Shop
5. Kugelkopfstativkopf (geht auch anders, ist aber am Bequemsten)
6. Funkauslöser
7. Stativ mit Reproanschluss
8. Kleines selbstgebautes Tischchen (kürzeste Möbelbeine aus dem Baumarkt, Loch in der Mitte)
9. Eine Digicam
02

Aufbau und machen

Kugelkopfstativköpfe nehmen zwischen den Beinen am wenigsten Platz ein.
02
Mein Adapter ist leider nicht so gefräst, dass es den angeschraubten Balgen in Normalstellung bringt. Nicht wirklich hinderlich, eher ein Wohlfühlproblem.
02
Der komplette Aufbau:
Kamera unter Stativ, Tischchen unter Kamera, DgitaLIZA auf Tischchen, Tablet mit Taschenlampenapp unter Loch im Tischchen.
02
Die Digitaliza ist im Grunde einfach eine Klemmvorrichtung. Imho mit 39,-€ mindestens 20,- zu teuer, aber meine versuche, selber etwas zu basteln sind auf das kläglichste gescheitert, weil absolute Planlage erforderlich ist (ich hatte versucht, aus einer Aluplatte mit Trennscheiben etwas Benutzbares zu machen, aber selbst bei größter Umsicht verbiegt sich da etwas).
Das „Negativ“ hier ist natürlich ein Positiv (Agfa Copex Rapid, im Scala-Prozess entwickelt – toller Film).
02
Auf einem Abschnitt des Bildes, auf dem möglichst die hellsten und dunkelsten Partien vertreten sind mit offener Blende scharfstellen.
02
Digitalzoom hilft bei der Feineinstellung.
Dann Abblenden auf 8 oder 11 und Probebilder machen, um die Belichtugszeit festzulegen (die Belichtungsmessung ist überfordert, weil sie keine Informatiionen vom Objektiv bekommt, also grundsätzlich in M fotografieren. Das Schöne ist: wenn ein Film durchgängig von der Belichtung her gut ist, müssen die Einstellungen nicht noch einmal verändert werden. Negativfilm ist sogar noch einfacher, man muss nur darauf achten, nach oben hin kein Clipping zu bekommen. Da ist ein Histogramm schon ganz hilfreich.
02
Jetzt immer schön behutsam Stück für Stück abfotografieren.
Anfangsecke wählen (vorzugsweise quer am schmalen Ende), mit Funkauslöser und GANZ WICHTIG: mit Spiegelvorauslösung arbeiten. Die Belichtungszeiten liegen irgenwo zwischen 0,5 und 1,5 Sekunden und da kann ein Spiegelschlag ganz fix zu Verwacklungen auf der Filmkornebene führen. Für die beiden Beispielbilder hier im Tutorial habe ich mit dem Balgen die minimale Vergrößerung gewählt, also den Balgen nicht ausgefahren. Mit dem Crop-Sensor der 550D bedeutet das ungefähr, dass ein Abschnittsbild so groß ist, wie ein Kleinbildnegativ, also eine Fläche von 24x36mm mit 18 Megapixeln abgebildet wird. Das ist für die meisten Objektiv-/Filmkombinationen auch reichlich (viele Filme haben ein höheres Auflösungsvermögen als die meisten Objektive – da schlägt die Chemie die Physik). Unten habe ich noch ein Beispiel verlinkt, in dem ich das maximal Mögliche ausprobiert habe – und dabei etwas über dem maximal Vernünftigen gelegen habe).
Wie auch immer:
mit dieser Balgeneinstellung kommt man bei ca. 30% Überlappung der Bilder (nötig für die Stitchsoftware) auf ungefähr 12 Bilder bei 6×9, 6 Bilder bei 6×6 und 4 Bilder bei 6×4.5.
Hier das Beispiel:
oben links die Überlappungsbereiche der ersten beiden Bilder, oben rechts die lose (und nicht ausgerichteten) übereinandergeschobenen Einzelbilder, unten alle Bilder in der richtigen Reihenfolge.
02
jetzt nur noch im Raw-Konverter Kurven anpassen (bei Negativen natürlich die Kurven umkehren – obwohl man das natürlich auch später machen kann).
Farbnegative sind leider die Pest, hier im ersten Schritt einen vernünftigen Weißabgleich hinzubekommen ist quasi unmöglich.
Ich arbeite von hier an bis zum endgültigen Bild mit 16 bit TIFFs. Frisst erstmal eine Menge Platz, aber wenn die RAWs und die EinzelTIFFs gelöscht sind passt das schon.
02
Zum Stitchen benutze ich PTGUI. Photoshop hat dafür auch eine Funktion, aber in PTGUI kann man Bilder, die in der automatischen Erkennung nicht genug Überlappungspunkte haben gut manuell einpflegen. Das betrifft zumeist relativ gleichmäßige Flächen oder größere Himmelsabschnitte.
Obendrein hat PTGUI einen Batch Stitcher, also kann ein Stapel Panoramen mit gleicher Einzelbildanzahl automatisch abgearbeitet werden.
02
Tadaaaaaa:
das fertig gestichte Bild.
Das Negativ ist leider etwas vollgekrümelt gewesen, aber wen die volle 109,4-Mega-Pixel-Version (12679×8630) interessiert: Hier klicken (ca. 50 MB, also nicht mit dem Mobiltelefon runterladen ^^)
Kamera: Mamiya Super 23, Format 6×9
Film: Agfa Copex Rapid, belichtet auf ASA 80, entwickelt im Scala-Prozess
02
Ein erstes Testbild aus meiner neuen Texas-Leica (Fuji GW690 II), Format 6×9. Film: Kodak T-Max 100
Volle Auflösung: Hier klicken (ca. 50 MB, also nicht mit dem Mobiltelefon runterladen ^^)
02
Ein Ausschnitt in 100%
02
Und zum Abschluss ein Beispiel für maximale Auflösung.
Kamera: Mamiya m645, Format 6×4.5
Film: Agfa Copex Rapid, belichtet auf ASA 80, entwickelt im Scala-Prozess
Abfotografiert mit voll ausgefahrenem Balgen, also „bis aufs Korn“.
Bei dem Fotoformat 6×4.5 (und dem feinauflösenden Film) wären meiner Einschätzung nach 75% dessen, was ich gemacht habe noch sinnvoll. Ich werde es wohl mal mit 6×9 ausprobieren.
Was normalerweise kein Mensch weiss: das Format .jpg hat eine Obergrenze von 25.000 Pixeln Seitenlänge.
:)
Das Bild ist mit 16880×22080 Pixeln rund 150 MB groß, daher habe ich es gezippt und zum Download bereitgestellt: Hier klicken
02
Und hier ein kleiner 100%-Ausschnitt:
02
Ich hoffe, dass das Tutorial für ein/zwei/drei Leute interessant und hilfreich ist.
Ich freue mich natürlich über Feedback und Fragen unten in den Kommentaren.

Foto zu 3D-Objekt Teil 3: 3D-Objekte im Browser

Nach längerer Pause nun zum finalen Teil des 3D-Tutorials.
In Teil 1 ging es um die Erstellung dder nötigen Fotos und der .obj atei mit Textur, die wir für alle weiteren Schritte benötigen.
Teil 2 zeigt, wie das Objekt in Blender positioniert, als .stl exportiert und dann mit U3D-2-PDF in ein PDF ohne Texturen umgewandelt wird.
Teil 3 wird nun zeigen, wie das Objekt direkt im Browser angezeigt werden kann.

Vorbereitung und ein kleiner Wermutstropfen

3D-Objekte im Browser benutzen WebGL, das leider kein Standard ist.
Der Internet Explorer (sei verflucht, Internet Explorer!) hat seiner Natur gemäß überhaupt keine Unterstützung für WebGL, andere Browser haben die Möglichkeit, WebGL darszustellen, aber bei Ihnen ist es per default ausgeschaltet.Firefox-Einstellungen
Hintergrund hierfür ist, dass rein theoretisch die Grafikkarte des Benutzers überlastet werden könnte, wenn zuviele Berechnungen an sie weitergegeben werden würden.
Das fuchsige an WebGL ist nämlich, das die Rechenarbeit auf dem Rechner des Nutzers und nicht auf dem Server geleistet wird.
Nach allem, was ich herausgefunden habe, könnte dies maximal zum Systemabsturz führen, was wir ja alle aus der guten alten Zeit kennen.

Wie auch immer:
Firefox kann WebGL darstellen, wenn man ihm das befiehlt.
Dafür muss man lediglich in der Adresszeile „about:config“ eingeben, bei der Warnung bestätigen, dass man vorsichtig sein wird, wenn man in den Eingeweiden des Feuerfuchses herumwühlt und dann ungefähr 100m nach unten scrollen, bis man auf den Eintrag „webgl.force-enabled“ stößt.
Der steht auf „false“ und ein Doppelklick ändert das in „true“.
so einfach geht das!

ALso bitte mal kurz machen, sonst hat dieses Tutorial keinen großen Sinn.
Wer keinen Firefox hat möge ihn sich endlich installieren, statt die bösen bösen anderen Browser zu benutzen.

Der Beispielhase

Ich habe den Hasen jetzt nicht in diese Seite direkt eingebundenHaselink – was ginge, aber ich wollte nicht für ganz psychoborg.org eine javascript-Datei laden lassen, die ich nur hier brauche – daher gibt’s den Hasen auf einer schmucklos weissen Seite.
Bitte nicht wundern:
Das Laden dauert eine kleine Ewigkeit (bei mir 20 Sekunden, bis der Hase da ist und 40 Sekunden bis dann auch die Texturen geladen wurden).
Danach einfach den Browser auf Vollbild schalten (F11) und schon kann nach belieben gedreht (linke Mautaste) und gezoomt werden (Mausrad/rechte Maustaste).

soooo, Howdunnit?

Hase ausrichten


Zunächst einmal muss das Objekt aus Blender als .x3d exportiert werden.
Diesmal muss das Objekt allerdings etwas anders ausgerichtet werden als bei der PDF-Fassung, nämlich mit dem Mittelpunkt auf der Kreuzung aller Achsen und mit dem Gesicht dem grünen Pfeil folgend.

exportieren


Dann markiere ich den Hasen mit der rechten Maustaste, gehe auf file->export->X3D Extesible 3D, suche mir einen auffindbaren Speicherort, gebe einen passenden Namen, wie z.B. „Hase“ an und schwupps – hase.x3d ist am rechten Platz.
Einfach soweit, gelle?
Wichtig!
„Apply Modifyiers“ abschalten, sonst wird das Stndard-Licht aus Blender mitexportiert (und so schön ist das nicht).
Ohne die Lampe bekommt man genau das, was man fotografiert hat.
Zusätzlich sollte „selection only“ angetickt sein, weil wir ja auch nur den Hasen wwollen.

jetzt geht es online weiter


Um nun den Hasen samt seinem zeitlos designten Pulli in webtaugliche Form zu bringen gibt eis ein schickes kleines Tool auf der Seite von Instantreality.org.
Wer keine Lust hat zu suchen, hier der direkte Link:
X3D Encoding Converter
Sehr (!) übersichtliche Bedienoberfläche.

Hier müssen zwei Dinge eingestellt werden.
1. input encoding muss auf „XML encoding (X3D)“ gesetzt werden, damit unser Hase eingelesen werden kann und
2. output encoding auf „HTML5“ oder „XHTML5“ gestellt werden, damit wir das bekommen, was wir wollen, nämlich eine kleine einzelne Webseite.

von offline zu online


Jetzt muss die Datei hase.x3d mit dem Editor geöffnet werden und der gesamte Inhalt kopiert (Strg+a, Strg+c) un dann in das „paste input code“-Kästchen auf der Webseite eingefügt werden (Strg+v).
Nicht wundern, das dauert ein bißchen.
Auch wenn es „nur“ Text ist, es ist Text im Wert von rund 11 MB im Falle des Hasen.

Jetzt auf „convert encoding“ klicken und… warten.
Rumsurfen macht in der Zeit wenig Spaß, also einfach mal Pipi machen gehen, Kaffee aufsetzen, Fische füttern o.ä., was einem so 2/3 bis 5 Minuten die Zeit vertreiben kann.
Es kann passieren, das Firefox dann kurzzeitig „keine Rückmeldung“ anzeigt, aber das gibt sich von alleine.

und wieder von online zu offline!


Wenn der Output dann da ist, muss er nur in eine leere Textdatei rüberkopiert werden.
WICHTIG!
Den Code von Hand markieren und zwar so, dass die Zeilen-Zahlen nicht mitmarkiert sind.
Also markieren, kopieren (Strg+c) und in ein neu angelegtes .html-dokument einfügen.
(Einfach den Editor öffnen, Strg+v drücken und bei „Speichern unter…“ „hase.html“ eingeben.
Fertig!

kleine Anpassungen


Unsere HTML-Datei zeigt das Häschen recht klein mit 400×400 Pixeln und vor sehr dunkelgrauem Hintergrund.
Hier sind die Codeschnipsel, die man abändern muss, um etwas Kontrolle zu bekommen.
(Wer mit dem ganzen so zufrieden ist kann es natürlich so lassen)
Für die Größe empfehle ich 800×800 Pixel, weil es in jeden Browser passt.
Wenn man die kompletten Farbangaben ersetzt durch DEF=’SingleColorBackground‘ transparency=’1.0′ kann man einen transparenten Hintergrund einsetzen und (ich will jetzt kein HTML-tutorial anfangen) da dann die Farbe nach gusto über den BODY-Tag steuern.

So, ich hoffe, der eine oder andere mag das nachbasteln und schickt mir einen Link mit seinen Ergebnissen.

Foto zu 3D-Objekt Teil 2: 3D-PDF

In Teil 1 haben wir Hase in ein 3D-Objekt umgewandelt.
Teil 2 bringt Hase (leiderleider ohne Texturen) in ein PDF-Dokument.
Das geht natürlich auch mit Oma, Opa, Onkel, Tante, Mutter, Vater, Freundin, Hund, Katze Maus, Elefant (immer vorrausgesetzt, Euer Motiv kann lange genug stillhalten, damit Ihr die Fotos machen könnt).
Wenn Ihr auf das PDF-Bildchen hier klickt, könnt Ihr Euch das Ergebnis anschauen.
Vorteil dieser Form der 3D-Präsentation ist die weite Verbreitung des Adobe PDF Readers, der seit Version 7 3D darstellen kann.

Erst ein bißchen Software installieren

Ohne ein wenig Vorbereitung geht natürlich nix, und hier ist unsere Einkaufsliste (naja, Besorgungsliste, ist alles Open Source):
MiKTeX von miktex.org herunterladen und installieren
MeshLab von sourceforge.net herunterladen und installieren
Um die Funktionsweise der beiden Programme brauchen wir uns zum Glück nicht zu kümmern, denn praktischerweise gibt es eine Software, die nur auf die beiden Programme zugreifen muss, um unser PDF zu erstellen:
U3D-2-PDF gibt es auch bei sourceforge.net
Obendrein sollte auf Eurem System das .NET Framework 4 laufen (falls nicht, einfach per Windows Update einspielen oder manuell von http://www.microsoft.com/NET/ installieren).
Puh!
WICHTIG:
MiKTeX braucht jetzt noch das Paket movie15, das über Start – Programme – MiKTeX – Maintanance – Package Manager nachistalliert wird.
U3D-2-PDF sucht zwar automatisch nach den installierten Programmen, aber falls es sie nicht findet, kann der Pfad manuell herausgesucht werden.

Export aus Blender

Wir brauchen für unser PDF das Objekt als .stl-Datei.
Das bekommen wir aus Blender generiert, allerdings muss zunächst das Exportformat aktiviert werden.
Unter File – User Preferences – Import-Export findet sich eine Liste mit allen unterstützten Dateiformaten.
Einfach ein Häkchen bei .slt setzen und alles ist flauschig.
Oh, und da wir gerade in dem Menü sind, kann auch gleich ein Häkchen bei Web3D X3D/VRML format gesetzt werden (das brauchen wir für Teil 3 des Tutorials).

Jetzt einfach das Hase.obj importieren und auf ein handliches Format skalieren.

Wichtig: den Hasen richtig ausrichten!

Damit der Hase nachher im PDF auch schön mittig sitzt und sich angenehm rotieren lässt, muss der Mittelpunkt des Objektes genau auf dem Mittelpunkt der Blenderbühne liegen (also da, wo sich die rote und die grüne Line kreuzen).
Damit er nach vorne schaut, muss er nach unten ausgerichtet werden, also liegt sozusagen mit der nase ein Stück „unter dem Boden“.
bei anderen Objekten kann man so natürlich alternativ schon einmal den Blickwinkel festlegen.
(ich hoffe, der Screenshot erklärt, was meinen Worten eventuell nicht möglich ist ^^).

Jetzt kann der Hase endlich exportiert werden!
Das Objekt muss ausgewählt sein, also mit der rechten Maustaste anwählen (dann erscheint ringgsherum eine orangefarbene Markierung).
Jetzt über File – Export – Stl gehen, links im Menü noch „Apply Modifiers“ aktivieren (falls das noch nicht ist), einen sinnvollen Speicherort und Namen wählen und schon hat Blender seine Schuldigkeit getan.

auffi geht’s!

So praktisch U3D-2-PDF ist: es gibt keine vernünftige Dokumentation!
Ebenso wie die richtige Lage in Blender nur durch ausprobieren möglich ist, war ein wenig Probiererei nötig, um nicht die Kamera mitten im Hasen liegen zu lassen.
Hier markiert ist im Menü „3D Options“ „roo“, das scheinbar den Abstand der Kamera zum Mittelpunkt des Objektes definiert.
Per Default ist das 0.158122 und ich habe es für mein Hase-PDF auf 5.0 gesetzt (ausprobieren, was für Euer Projekt am Besten ist).
Der Rest der Einstellungen ist weitgehend selbsterklärend.
Mit Source File wird der Ort Eurer .stl-Datei definiert, mit Target File Speicherort und Name für das PDF.
Page Lauout definiert Hoch-/Querformat und Größe des PDFs.
App Paths beinhaltet die Pfade zu MiKTeX, MeshLab und dem Acrobat Reader.

Tschaaaa, schauma mal!
„Start“ drücken, ein wenig warten und schon haben wir unser 3D-PDF!

Zum Glück muss dieses gesamte Installieren und Einrichten nur ein einziges Mal gemacht werden.
Ist alles am Platze und hat man sich zwei/dreimal durch den Workflow geackert, hat man nach drei Minuten sein PDF.

Mehr Freude beim Anschauen – das 3D-PDF

Beim ersten Öffnen sitzt unser Modell mit perspektivischer Verzerrung unhübsch beleuchtet auf einem weissen Hintergrund.
Beeindruckend nichtsdestotrotz, weil mal es ja mit der Maus hin- und herdrehenund zoomen kann.
Natürlich gibt es auch noch schönere Einstellungen.
Der rote Schalter switcht zwischen orthogonaler und perspektivischer Ansicht hin- und her (orthogonal finde ich besser), das grüne Menü gibt unterschiedliche Beleuchtungen (ich finde „Scheinwerfer“ ganz gut), mit der gelb markierten Schaltfläche kann man sich sein Werk als cooles Gitter- oder Punktemodell ansehen.
Und ganz rechts kann man sich noch eine genehmere Hintergrundfarbe aussuchen.

Das war’s auch für heute.
Nächste Woche kommt dann die direkte Darstellung von 3D-Objekten im Browser mit X3D.
IN FARBE!

Foto zu 3D-Objekt Teil 1: vom Bild zum 3D-Objekt

Willkommen zum ersten Tutorial auf psychoborg.org.
Zum Einstieg in das große Blogabenteuer habe ich mir ein echtes Schmankerl als Thema ausgesucht.

Wie wäre es, wenn man Objekte, Orte, Personen Pflanzen, etc. pp. „echt“ dreidimensional (also dreh- und skalierbar) im Netz darstellen könnte?
Großes Kino wäre das!

Und wenn das auch noch ohne Investition in teure Software ginge?
Hinreissend!

Nun ja.
Zum ersten Mal bin ich vor rund zwei Jahren auf interessante Lösungen für diese Idee gestoßen.
Leider haben alle Ansätze einen (oder zwei) massive Nachteile.
Allen gemein ist, dass eine Kalibrierungsvorlage – meistens eine weisse Fläche mit Punkten, an denen sich die Software bei der Berechnung der 3D-Objekte orientiert – benötigen, was zum einen die Flexibilität auf Null setzt und die Größe darstellbarer Objekte limitiert.
Obendrein kosten sie schon einen Happen Euronen.
Der Vorteil wiederum ist, dass sie alle einen Viewer bereitstellen, mit dem die Objekte ohne größere Zwischenschritte (und irgendwelcher Einstellungsveränderungen seitens der Nutzer) veröffentlicht werden können.
Wer sich ein paar der Programme anschauen mag: iModeller, Object Modeller Pro und das teuerste mit den meisten Features ist Photomodeler Scanner (vermutlich das, was bei CSI eingesetzt wird ^^).

Aber wir wollen es ja umsonst, gelle?

Als erstes brauchen wir die Cloud-Anwendung (macht mich auch nicht glücklich, dass es Cloud-basiert ist) 123D Catch und einen Account.
Einfach auf http://www.123dapp.com/catch gehen und alle Installationsschritte durchgehen.

Als zweites brauchen wir einen Haufen Bilder unseres Objektes aus unterschiedlichen Winkeln.
Ich habe hier mal etwas übertrieben und 39 Aufnahmen von meinem charmanten Assistenten Hase gemacht.

Wichtig dabei ist, dass möglichst jeder Winkel ein paarmal auf den Bildern auftaucht. Besonders bei Lücken im Objekt, wie beispielsweise zwischen Arm und Körper sind ein paar Detailaufnahmen wichtig, weil sonst hinterher eine Fläche gerendert wird, bei der Teile des Hintergrundes sichtbar bleiben.

Bei diesen Aufnahmen bin ich zweimal um Hase herumgerobbt und habe bei einer Runde die Bilder fast aus Bodenhöhe geschossen, bei der anderen Runde leicht von oben und habe dann noch 10/15 Detailaufnahmen gemacht.
Zur optimalen Fotoanordnung gibt es bei 123D Catch auch einige Tutorialvideos, aber im großen und ganzen kann man sagen: ausprobieren und lieber fünf Bilder zuviel als zu wenig machen.
Hilfreich ist auch mit kleiner Blende zu fotografieren, damit die Schärfentiefe so hoch wie möglich ist (Hier: ISO 400, f16 bei 1/60sec).

Nun zu Autodesk.

Autodesk benötigt mindestens drei Bilder, um ein sinnvolles 3D-Objekt zu erstellen.
Also würden drei Bilder theoretisch reichen, um das Gesicht einer Person darzustellen (Hlabprofil links, Halbprofil rechts und am Besten eins leicht von schräg unten, damit unter dem Kinn kein Loch entsteht).
Aber das ist Kleckerkrams und hier soll ein voll drehbares Rundummodell erstellt werden.

Einfach das Programm öffnen (Vernüpfung auf dem Desktop, falls angelegt, sonst raussuchen), auf „create new photo scene“ klicken, den Ordner mit den Bildern Eures Objektes ansteuern, alle Bilder auswählen, die dazugehören und „öffnen“ dücken.
Jetzt steht da „compute photo scene“ und wenn man da draufklickt bekommt man die Auswahl, sich per Mail benachrichtigen zu lassen, wenn die Szene fertig durchgerechnet wurde oder zu warten (wir erinnern uns: die gesamte Rechenarbeit übergeben wir einem Cloudprogramm).
Ist letztlich wumpe, wie man verfährt.

Einfach noch einen sinnvollen Namen für die Szene eingeben (z.B. „Hase“) und schwupps fängt das Programm an, die Projektdaten hochzuladen.
Die Berechnung kann je nach Bildanzahl und Komplexität ein ganzes Weilchen dauern.
Hase hat ein knappes halbes Stündchen gedauert, bis ich per Mail benachrichtigt wurde.
Also etwas Geduld ist nötig.

Ein Klick auf den Link in der Mail öffnet dann die Fotoszene in 123D Catch.
Da meistens irgendwelche Bildbestandteile nicht zu unserem Objekt gehören, kann man sie einfach mit dem Lasso (rot eingefärbt) maskieren und mit einem Druck auf die „Entf“-Taste Löschen und sich so zum eigentlichen Objekt durchknuspern.

Das Grün umrahmte Symbol bietet die Möglichkeit, eine andere Qualität der Renderung anzufordern (Standard ist „Medium“, also da geht noch was!).
123D Catch kann Youtubevideos mit Kamerarundflügen erstellen, wenn man Kamerapfade erstellt.
Da gehe ich jetzt nicht näher drauf ein, weil das ja nicht das ist, was wir hier machen wollen.

Stattdessen gehen wir auf „file“ -> „export scene as…“, wählen .obj als Dateiformat, geben dem ganzen einen sinnvollen Namen und Speicherort (ganz wichtig, das verschwindet per default irgendwo in den Untiefen der eigenen Dateien) und speichern das ab.

Wuhuuuuu! 3D-Objekt in weiterverarbeitbarem Format!

Hier könnte Teil 1 des 3D-Objekte-Tutorials enden, aber zumindest das Programm, mit dem die Weiterverarbeitung möglich wird will ich kurz ansprechen: Blender.
Blender ist ein mächtiges Open-Source-Programm, mit dem man komplette 3D-Animationsfilme erstellen kann (theoretisch können unsere erstellten Modelle also eine Rolle in einem Film spielen).
Für dieses kleine Tutorial und unsere Zwecke jedoch brauchen wir nur Blenders Fähigkeit, die .obj Dateien in anderen Formaten abzuspeichern.
Blender gibt es Zum freien Download unter http://www.blender.org/.

Über „file“ -> „import“ -> „Wavefront (.obj)“ kann dann das Objekt in Blender geladen werden.
das es vermutlich total schräg und riesengroß im Arbeitsbereich erscheint können wir es uns mit „rotate“ und „scale“ irgendwo mittig platzieren.

so!
Soweit zu Teil 1 des 3D-Tutorials.
In Teil 2 wird der Hase zum 3D-PDF!