Siggraph2003

Die SIGGRAPH (Special Interest Group in Computer Grafics) ist eine der bedeutesten Fachmessen für Computer- Grafik. Die Messe besteht nicht nur aus einer Austellung, sondern auch aus zahlreichen Fachvorträgen sowie Kursen und dem Electronic Theatre mit den neuesten Computer- Animationen. Nebenbei können Sie zukünftige Techniken aus dem Forschungsbereich kennenlernen,  zum Beispiel in den “Emerging Technologies”.

Neue Version der Videos: Stand 20.9.2003, jetzt auch mit der Haptic Workstation im Teil 2.

Downloads:

  1. Realvideo Teil 1: 320x240,  11 MB, 9 Min.
  2. XviD NTSC Teil 1: 640x360, 48 MB (Archive 1)
  3. XviD HDTV Teil 1, 1280x720, 185 MB (Archive 1)
  4. Realvideo Teil 2: 320x240, Letterbox 9 MB 8 Min.
  5. XviD NTSC Teil 2: 640x360, 34 MB (Archive 1)
  6. XviD HDTV Teil 2, 1280x720, 131 MB (Archive 1)

Auf den Link klicken und das Video lokal abspeichern. Das Video mit einem Player anschauen, der entsprechende Codec muss zuerst installiert sein, sonst gibt es eine Fehlermeldung.

Achtung! Beim Internet-Explorer mit der rechten Maustaste auf den Link klicken, dann “Ziel speichern unter...” angeben.

PICZA. Wer die 3D- Geometrie eines Objekts in den Computer einlesen will, braucht einen 3D-Scanner. Bei Roland lief die PICZA Scanner- Serie auf Hochtouren. Die Daten werden per Abtast- Nadel erfasst. Es stehen zwei Modelle zur Verfügung: Der PIX-4 mit 6x4x2,4 Inches sowie der PIX-30 mit 12x8x2.4 Inches. Der Abtast- Abstand ist dabei minimal 0.002 Inches.

http://www.rolanddga.com

Cobra. Bei Polhemus gibt’s unter anderem die schon seit ein paar Monaten erhältliche Fastscan Cobra  zu sehen, eine Tracker- Scanner- Kombination, mit der sich 3D- Modelle recht schnell digitalisieren lassen. Die Abtastung der Objekte erfolgt mit einem frei beweglichen Laser- Scanner, um eine ganzheitliche Erfassung zu ermöglichen. Zu diesem Zweck wird er mit dem Tracker kombiniert, damit der Rechner die Position des Hand- Scanners ermitteln kann. Die Digitalisierung von Gesichtern erfolgt innerhalb kürzester Zeit, sofern die Testperson beim Scan- Vorgang ruhig sitzen bleibt. Objekte lassen sich auch mit einem zusätzlichen Tracker versehen und können somit bewegt werden. Gerade bei komplizierten Formen lassen sich dadurch Unterschneidungen besser erfassen. Die Genauigkeit beträgt ca. 1 mm bei einem 200 mm Gesamtbereich.

http://www.polhemus.com

3Q. In nur 0.02 Sekunden lässt sich ein 3D- Bild von dem Gesicht eines Zuschauers erstellen, bei dem sowohl Geometrie als auch Textur erfasst werden. Der Bedarf im medizinischen Bereich erforderte die Entwicklung dieser besonderen 3D Capture- Technik. Neben den damit durchgeführten Untersuchungen lassen sich auch mögliche Behandlungmethoden ableiten. Die hohe Geschwindigkeit von 0.02 Sek. eignet sich hervorragend für Untersuchungen bei unruhigen Patienten, wie etwa Kindern.

Die Technik der Firma 3Q kann nicht nur die menschliche Form in zwei Millisekunden erfassen, sondern verwendet dabei auch noch ein sicheres, nicht auf Laser basierendes System. Die Genauigkeit beträgt <1mm RMSE. Durch die Skalierungs- Fähigkeit lassen sich Gesicht oder auch ein ganzer Körper mit 360 Grad vollkommen erfassen. Die Person wird mit einem Zufallsmuster beleuchtet und dessen Struktur aufgenommen. Mit mehreren synchron geschalteten Kameras in unterschiedlichem Winkel lässt sich die 3D- Geometrie später zurückrechnen. Eine Kamera erfasst auch die Textur, wobei das Licht in unterschiedlichen Wellenlängen für die einzelnen Aufgabenbereiche verwendet wird.

Es gibt auch die Möglichkeit diese Bilder mit 30fps bzw. 60fps für Motion Capture mit Erfassung der Geometrie einzusetzen. Die Ausgabe der Daten kann in unterschiedlichen Formaten erfolgen. Anwendungen erfolgen natürlich nicht nur im medizinischen Bereich, sondern auch im Unterhaltungssektor, in Museen und für Produktionshäuser.

http://www.3q.com

Liberty. Der bereits im Mai von Polhemus angekündigte neue Tracker arbeitet mit einer zeitlichen Auflösung von bis zu 240Hz. Die Verzögerung beträgt dabei weniger als vier Millisekunden. Position und Rotation (sechs DOF) werden von bis zu acht Sensoren pro Gerät erfasst. Verbunden wird die Basis- Einheit wahlweise über serielle Schnittstelle (RS232) oder USB. Ein GUI (Graphic User Interface) für Windows 2000/XP sowie ein SDK (Software Developer Kit) ermöglicht die Einbindung in eigene Applikationen. Die Ausgabe erfolgt in karthesischen Koordinataten, wahlweise metrisch oder englisch. Die Orientierung wird ebenfalls wahlweise in Cosinus- Werten, Euler- Koordinaten oder als Quaternionen für die Richtung übertragen. Mit seiner zeitlichen Auflösung eignet sich das System auch für Biomechanik- und Sport- Analysen. Die Auflösung liegt bei mehr als 0.001 Inches und 0.01 Grad, die absolute Genauigkeit bei 0.03 Inches RMS für X-,Y- und Z- Positionen sowie 0.15 Grad RMS für die  Rotation. Der Messbereich umfaßt fünf Fuß, kann aber mit einem zusätzlichen Transmitter erweitert werden.

http://www.polhemus.com

Image-Metrics verwendet ein rein optisches Erkennungsverfahren, um die Gesichtsmimik zu erfassen. Das Aufbringen von speziellen Markern ist nicht mehr notwendig.

Es werden sowohl Mund- als auch Augenbewegungen erfasst und an den Rechner geleitet. Damit lassen sich dann die Gesichtsmuskeln eines virtuellen Charakters steuern.

http://www.image-metrics.com/

Ascension arbeitet bei der Erfassung von Körperbewegungen mit magnetischen Trackern, die dem Computer Informationen über Position und Orientierung liefern. Mehrere Tracker werden am Körper an definierten Stellen angebracht, um so später den virtuellen Charakter steuern zu können.  Nachteil des Verfahrens: Magnetische Tracker reagieren sehr empfindlich auf ihr Umfeld. Wird das benötigte Referenz- Magnetfeld durch Stahlträger oder Eisennetze gestört, bedeutet dies eine Erschwernis für die Kalibrierung des Systems. Um gute Ergebnisse zu erzielen muß der Aufstellungsort mitunter merhmals gewechselt werden.

http://www.ascension-tech.com

VICON schwört auf optische Erfassungs- verfahren gegenüber den magnetischen, die allerdings den Nachteil der Verdeckungs- gefahr in sich bergen. Die an der Zimmerdecke montierten Trackerkameras müssen möglichst viele der Markerpunkte aufnehmen können, um daraus die Koordinaten zu berechnen (siehe auch unseren Betrag Motioncapture). Auch hier läßt sich mit dem auf der Messe gezeigten System inzwischen ein Echtzeittracking für Live-Performance durchführen. http://www.vicon.com

Auch ShapeWrap ermöglicht die Bewegung eines Performers zu erfassen. Dabei werden flexible Bänder eingesetzt, die auf Biegung reagieren. Der Rechner überträgt  die erfasste Bewegung auf einen virtuellen Charakter ohne dass der Performer noch an ein Kabel gebunden wäre, da die Daten in WLAN übertragen werden.

http:://www.3dagentur.de 

Endorphine. Für Stunt- Szenen eignet sich Virtual Motion Capture, um eine Verletzungsgefahr für den Performer auszuschließen. Ein virtueller Stuntman agiert dabei mit künstlicher Intelligenz, so dass die erzeugten Bewegungen auch real wirken. Ein kleiner Treppensturz gefällig? Der Akteur im PC rudert sogar mit den Armen, um eventuell noch sein Gleichgewicht wiederzuerlangen. Die Bewegungen sind fliessend und können mit eingeblendetem Ghosting auch gut getrimmt werden, so dass beim Fall ein bestimmtes Ziel getroffen wird. Die sogenannte Active Character Technology (ACT (tmP) lässt den virtuellen Charakter wirklichkeitsgetreu reagieren. Wenn er gerade eine Strasse entlangläuft und von einem Ball getroffen wird,  faßt er sich zunächst an den Kopf und balanciert, bis ein zweiter Treffer ihn engültig zu Fall bringt. Ein Muskelmodel verhilft ebenfalls zu realistischen Bewegungsabläufen. Die Daten können dann natürlich auch als Motion Capture- Dateien in den bekannten Formaten exportiert werden und stehen für die Szene bereit:

  • csm für 3dsmax,
  • Acclaim: .amc/.asf
  • Biovision: .bvh
  • FBX: .fbx für den Motionbuilder in Kürze. 

Von der Homepage können Sie sich inzwischen die neuesten Demo- Videos vom SIGGRAPH2003 Showreel herunterladen, sowohl in MPG als auch DivX.

http://www.naturalmotion.com

Elumens ist bekannt für seine Dom- Projektoren, die in unterschiedlichen Größen erhältlich sind und die Zuschauer in fantastische Welten führen. Die gezeigten Szenen sind so real, dass der Körper unweigerlich darauf reagiert.Das System Visiondome 5 basiert auf einer Halbkugelprojektion

http://www.elumens.com

 

FogScreen. Eine Nebelwand als Projektionsschirm zu verwenden, bringt mehrere Vorteile: Die Wand ist sehr flach und dünn und ermöglicht somit hochwertige Projektionen. Ferner kann sie durchlaufen werden ohne dass der Betreffende dabei nass wird (eignet sich sehr gut für Shows). Die Bildschirmfläche ist etwa 1,3 x 1,7 Meter groß. Der ganze Spaß kostet stolze 100.000 Euro, wobei ein Leasing möglich ist.

 http://www.fogscreen.com

OmniGlobe. Ungewöhnliche Display-Formen sind heute mehr denn je gefragt. Emergent Technologies präsentiert als Antwort darauf eine Sphäre als Projektionsfläche, die sich hervorragend für die Darstellung von Planeten eignet. Dem OmniGlobe können Sie in Planetarien und Museen begegnen. Mit einer Rollkugel kann die virtuelle Erde in alle Richtungen gedreht werden. Mit einem Touchscreen- Bildschirm lassen sich diverse Erdmodelle laden, von Wirtschaftsmodellen bis zur Simulation der Plattentektonik. Die Projektion erfolgt von unten auf eine verspiegelte Halbkugel, die das Bild dann im Inneren der Projektionsfläche erscheinen läßt.

http://www.arcscience.com

HP präsentiert: Die Entstehungsgeschichte des Powerski Jetboards. An den Workstations sind die 3D-Modelle zu sehen, die bei der Entwicklung verwendet wurden.

http://www.powerski.com/

Dimension 3D zeigt eine preiswerte Lösung zur Erstellung von 3D- Prototypen nach dem Aufbauverfahren. Mit dem 3D Drucker ist es möglich, funktionierende Teile aus ABS-Material herzustellen. Ausgangsbasis ist eine STL-Datei, wie sie von einem 3D-Programm erzeugt wird. http://www.dimensionprinting.com

Solidscape zeigte neues 3D Drucker-Modell T612

Mit einem Bauraum von 12 x 6 x 6 inches hat das neue T612 Modell das doppelte Bauvolumem vom Vorgängermodell T66. Die Modelle werden dabei in aufbauender Weise konstruiert. Dabei kommen zwei Thermoplaste zum Einsatz. Einer davon besitzt einen  niedrigeren Schmelzpunkt, so dass dieses als Trägermaterial verwendet wird und später leicht aus dem fertigen Modell herausgeschmolzen werden kann. Die Genauigkeit der Modelle ist besonders hoch und liegt bei +-0.001 inches (0.025mm) pro Inch in X,Y und Z-Richtung. Die kleinste Grösse eines Features liegt bei 0.01 inches (0.254mm). http://www.solid-scape.com

Virtuelle Tastatur für PDAs und andere mobile Einheiten

Das Canesta Keyboard Perception Chipset(tm) besteht aus drei Komponenten. Einem Sensormodul, mit dem die Fingerbewegung erfasst wird, einem Projektor der das Bild einer Tastatur mit Hilfe eines Lasers auf die Unterlage abbildet, und einer Infrarot-Lichtquelle, die die Finger beleuchtet. 

Ein aufgebautes Beispiel wurde in den “emerging technologies” auf der SIGGRAPH demonstiert und Besucher konnten damit Texte eingeben. http://www.canesta.com

HDR ist ein Stichwort das man häufiger auf der SIGGRAPH hörte und bedeutet High Dynamic Range. Will man photorealitische Beleuchtungen von 3D Objekten erreichen, so genügt es nicht ein normales Foto als “Lichtquelle” zu verwenden, da helle und dunkle Teile des Bildes  nicht mehr genügend Information über die ursprünglichen Lichtquellen enthalten. HDR-Bilder werden z.B. mit unterschiedlichen Blenden (sogenannte f-Stops) aufgenommen und haben eine Tiefe von z.B. 16 Bit. Mit Hilfe von MAYA und Mental Ray haben wir das obige Bild berechnet. Das RDK-Logo wird damit so beleuchtet, als ob es in dem verwendeten Raum der als HDR-Bild vorlag,  gestanden hätte. Das HDR-Bild ist ausserdem ein Panoramabild, denn alle Teile des Raums tragen ja zur Beleuchtung bei. Um solche Bilder zu erhalten kann man Fotoapperate verwenden, und die BIlder zusammenbauen, dies ist aber sehr mühsam und ungenau, zumal man mit unterschiedlichen Blenden belichten muss. Besser geht es mit Spezialkameras, wie der SpheroCam HDR, die bis zu 50 Megapixel aufzeichnet und eine Fläche von 360 Grad x 180 Grad überstreicht und das mit 26 f-Stops. Wir werden zum Thema HDR in einem eigenen Beitrag nochmal genauer berichten. http://www.spheron.com

Etwas “off topic” waren die Smart-Its, die bei den Emerging TEchnologies gezeigt wurden. Es handelt sich um kleine Mikrocomputer, die mit Sensoren ausgestattet sind, und über wireless Lan miteinander kommunizieren können. Damit lassen sich auf einfache Weise intelligente Gegenstände erzeugen, Stühle die die Lastverteilung melden, Tische, die die Position von Gegenständen ermitteln können und Gläser, die üebr den Füllstand Auskunft geben. http://www.smart-its.org/

Haptic Workstation

Immersion zeigte die”Haptic Workstation (tm)” auf der SIGRAPH. Besucher konnten sich damit in ein virtuelles Automobil setzen  und die Amaturen, das Lenkrad und andere Gegenstaende anfassen und damit hantieren. Zwei Forcefeedback-Handschuhe vom Type Cyberforce erlauben es sogar die Hände auf dem Armaturenbrett aufzulegen. Das Gewicht einer Cola-Dose, die man aufheben kann, spürt man mit der Hand. Auch Bedienelemente kann man anfassen und damit agieren. Dies erlaubt es Konstrukteuren in einer sehr frühen Phase der Entwicklung mit den Anordnungen von Bedienelementen zu experimentieren und zum Beispiel deren Anordnung zu optimieren. Über ein Headmounted Display sieht man die Umgebung auch 3-dimensional, so dass man sich wirklich in ein Auto versetzt fühlt. Das Beispiel wurde mit CATHIA V5 erstellt, die Software VirtualHand(tm) für V5 erlaubt es unterschiedliche Modelle auch anderer 3D-Pakete zu verwenden. Das schlüsselfertige System “Haptic Workstation (tm)” ist aber nicht nur für die  Automobil-Industrie interessant, auch im Flugzeugbau lässt sie sich direkt einsetzen, sowie in vielen anderen VR-Anwendungen. Damit lassen sich Optimierungen fuer die Ergonomie und für die Bedienbarkeit durchführen, sowie ein Einsatz bei Training, Simulation  und Forschung ist denkbar. http://www.immersion.com/hapticworkstation

(C) 2003-12 MultiMediaStudio Dipl.-Ing. Rolf-Dieter Klein, München

(C) 2003-12 MultiMediaStudio Dipl.-Ing. Rolf-Dieter Klein, München

Besucherzahl bis heute: