Project Natal

copy&paste von golem.de

Es hatte viele Spekulationen gegeben, jetzt ist klar, um was es ging: Auf der E3 in Los Angeles hat Microsoft ein Zusatzgerät für die Xbox 360 vorgestellt, das die Bedienung von Spielen und anderen Medien mit Bewegungen zulässt - und auf neuartige Weise auf Sprache, Gesichter und sogar Emotionen reagieren soll.
Im Wohnzimmer wartet immer jemand. Sobald der Bürger von morgen in die Nähe seines Fernsehers kommt, verfolgen ihn freundliche Blicke. Ein TV-Avatar grüßt nett, weist auf einen neuen Spielfilm oder ein paar Nachrichten in Facebook oder Twitter hin. So stellt sich Microsoft die künftige Integration der interaktiven Unterhaltung in unser Leben vor. Auf der E3 in Los Angeles hat das Unternehmen erstmals sein "Project Natal" genanntes Gerät vorgestellt. Das ist auf den ersten Blick nur eine an die Xbox 360 angeschlossene Kamera, die Bewegungen und stimmen erfasst - aber wenn das Gerät hält, was Microsoft an zusätzlichen Funktionen verspricht, könnte "Natal" tatsächlich Teile unseres Alltags umkrempeln.

Die grundlegende Technik für das neue Gerät dürfte vom israelischen Unternehmen 3DV Systems stammen, das Microsoft Anfang 2009 gekauft hatte und das sich auf Gestensteuerung spezialisiert hatte. Der kleine Apparat mit dem - wohl als Arbeitstitel zu verstehenden - Namen Project Natal verfügt über eine RGB-Kamera, einen Tiefensensor sowie über Raumklangmikrofone. Im Unterschied zu 2-D-Kameras und 2-D-Kontrollern kann es laut Microsoft Körperbewegungen in 3D aufnehmen, während es zeitgleich auf Befehle, Richtungsänderungen und sogar Veränderungen in der Stimmlage reagieren kann. Der Sensor soll nicht abhängig von den Lichtverhältnissen sein und das System über ein weitgehendes Verständnis für Sprachbefehle verfügen.

In der Praxis bedeutet das: Sobald eine Person in Reichweite der Sensoren gerät, kann Project Natal das korrekte Xbox-Profil zuordnen und den Spieler individuell mit einem Avatar, der seinem echten Gegenüber scheinbar in die Augen blickt, per Sprachausgabe begrüßen. Der Nutzer kann dann entweder selbst Befehle erteilen, oder sich mit Bewegungen durch das Menü der Xbox-Oberfläche scrollen. Auf der Präsentation in Los Angeles funktionierte das alles beeindruckend gut und erinnerte an die Art, in der sich Tom Cruise in dem Film Minority Report durch Computersysteme hangelt. Kein Wunder, dass bei der Präsentation von Project Natal auch dessen Regisseur Steven Spielberg auf die Bühne trat und die neue Technik in höchsten Tönen lobte.

Videos:


update:


Meine Meinung:

freue mich auf egoshooter :)
 
Alles klar, jetzt weiß ich wo ich arbeiten werde, wenn ich meinen Quark hier feddich studiert hab..!
 
ha, und nach ein paar RPG's alla Gothic 3, bist 2x um die Welt gelaufen, und nach nen paar anderen Games biste dann extrem Sportler und sagst du zu Joey Kelly.

Die Shooter Fans haben dann eine taktische Ausbildung im Waffenkampf
und die Beat'm'Upper sind alles Nahkampfspezialisten.

und die Möbelhäuser freuen sich auch ^^
 
das sieht verdammt krass aus. aber ob das wirklich so gut funktioniert mit der bewebungserkennung glaub ich erst wenn ich es selbst mal ausprobieren kann.
die wii mit ihren wii-remote wurde auch ohne ende gelobt, eine so gute erkennung der bewegung bietet sie aber nicht. mit der wii motion plus soll sich das ja ändern.

sollte MS's natal project wirklich eine solch gute erkennung haben, dann sollte sich nintendo warm anziehen! momentan bin ich aber noch skeptisch, dass alles so perfekt funktioniert wie in den video clips.
 
Ich wollte schon immer was mit Computerspielen machen und gerade studiere ich Computer Vision und endlich passt das zusammen.. yay!!
 
Wenn das so funktioniert wie die das vorgeführter haben... dann leck mich am Arsch!
 

hier noch ein weiterer artikel


interessant

The box uses two sensors for input: a video camera, and an infrared camera (that light you see in the press photo is either power, or some part of the IR setup). The infrared data is used to gauge depth and the video camera movement, but it's the software Microsoft has developed which is really doing the magic. We were shown an example of the raw output of the system, which melds the two sources and then breaks them down into a wireframe of objects, a heatmap (for depth), and a point-map (which is akin to one of those hand imprint needle toys). The software merges all of this together to create a picture of movement in the room, allowing for some pretty crazy detail of what is going on. We watched a chair being dragged into the middle of the playing field, and the software was able to continue to track the human movement, as well as that person sitting down -- it didn't break a sweat. The accuracy is far better than you would imagine it could be; it's very impressive stuff.

bin mal gespannt wanns neues gibt :)


zum video:

The second demo was actually just a hack of Burnout Paradise, and in some ways was more interesting than the ball swatting. Kudo and his team retrofitted the racing game to take advantage of the Natal, implementing a virtual wheel for steering, and a foot forward or back as the gas pedal. The effect was nothing short of amazing -- the first time we stepped in to play it was immediately natural (save for the part about having to imagine a wheel in your hands). Sure, we wrecked the hell out of a few cars, but it was striking how easy it was to pick up the feel for it. Kudo insinuated that it would be easy for developers to incorporate this tech into pre-existing games, and we have to say, the possibilities are exciting.
 
Zurück
Oben