Das ist nicht nur beim Betrachten oder Verarbeiten von Fotos indiskutabel, auch Videos und Spiele verlieren so viel von ihrem Reiz, denn alle dunkleren Töne saufen gnadenlos in Schwarz ab, helle Farben wie das Gr¨¹n einer Landschaft oder Rottöne knallen dagegen hart auf die Netzhaut. Das wirkt lästig und unangenehm. Erfahrene Anwender mögen sich mit einem eigenen Farbprofil in den Einstellungen des Nvidia-Treibers behelfen, aber den stets zu hohen Kontrast des Panels kann man so nur halbwegs ausgleichen.Wir f¨¹hrten Medion diese Darstellung auch im Vergleich mit anderen Notebooks vor, das Unternehmen hielt dann R¨¹cksprache mit seinen Technikern. Ergebnis: Die Displays werden nicht einzeln ab Werk kalibriert, und die Bildqualität anderer Exemplare entspricht unserem Testgerät. Im Zweifel sollte man sich das X7611 also selbst ansehen, um zu pr¨¹fen, ob die Darstellung f¨¹r die persönlichen Vorlieben noch tragbar ist. Im Wortsinne sollte man sich dabei nicht von der perfekten Ausleuchtung und den meist voll aufgedrehten Displayhelligkeiten in Elektronikmärkten blenden lassen.
Offenbar hat Medion also beim Display gespart, was bei einem 1.300-Euro-Gerät unverständlich ist. F¨¹r andere Bereiche gilt das nicht: Wo viele Anbieter oft billige WLAN-Module einbauen, sitzt im Erazer ein N7260 von Intel mit zwei Antennen, das auch Widi beherrscht. Es erreicht mit 802.11n bei 2,4 GHz 130 MBit/s und im 5-GHz-Band 300 MBit/s. Wir schafften an einem Messpunkt, wo einfache WLAN-Module nur auf knapp 100 MBit/s kommen, auch im ¨¹berlaufenen 2,4-GHz-Band mit 14 benachbarten Netzen noch 130 MBit/s. Beim Kopieren großer Dateien aus dem lokalen Netz ergaben sich netto ¨¹ber 11 MByte pro Sekunde. 802.11ac beherrscht das Funkmodul allerdings nicht.Ein weiteres, gut durchdachtes Detail ist der Einschaltknopf: Er leuchtet weiß, wenn die integrierte Grafik genutzt wird, und orange, wenn die Nvidia-GPU arbeitet. So kann man vor allem im Akkubetrieb schnell feststellen, ob man nicht versehentlich die gar nicht gebrauchte 765M aktiviert hat, und von Hand im Treiber die GPU wechseln.
Insgesamt ist das Erazer X7611 ein faires Angebot. F¨¹r 1.350 Euro gibt es viel Leistung, die einige Jahre ausreichen d¨¹rfte, und zudem eines der leichtesten 17-Zoll-Notebooks. Damit wäre es zum Spielen und Arbeiten, unterwegs auch angesichts der brauchbaren Laufzeiten, ein guter Desktopersatz. Das gilt aber nur, wenn ein externer Monitor verwendet wird - drei davon können gleichzeitig betrieben werden -, denn das Display beherrscht keine korrekte Farbdarstellung. Ohne dieses Manko könnte das Erazer als gutes Allround-Notebook mit großem Display durchgehen.
Selbst wenn man sich mit dem Bildschirm abfinden kann, bleibt die ungeschickte Anordnung der Schnittstellen lästig. Eine Strombuchse gehört nicht an die rechte Seite eines Notebooks und schon gar nicht in die Mitte des Gehäuses. USB-Stecker, die bei einem 17-Zöller deutlich herausstehen, haben wir auch noch nicht gesehen. ¨¹berarbeiten sollte Medion auch die L¨¹fterkennlinien, denn ein lauter CPU-Ventilator stört im Alltag mehr als die L¨¹ftung f¨¹r die GPU - und genau die ist beim X7611 leiser als der Prozessork¨¹hler.
Damit bleibt das Erazer eben doch ein Spezialist, der nur beim Spielen mit Headset bis auf das Display voll ¨¹berzeugen kann. Es sollte aber nicht allzu schwer sein, das Gerät mit etwas Feinarbeit zu einem voll empfehlenswerten Allzweckgerät f¨¹r die Anwender zu verbessern, die viel Leistung und ein großes Display brauchen. Wissenschaftler der Harvard-Universität haben Biotinten entwickelt, mit denen sich komplexes dreidimensionales Gewebe herstellen lässt. Es ist sogar von Blutgefäßen durchzogen.
Dem Ziel, Gewebe k¨¹nstlich herzustellen, ist Jennifer Lewis einen Schritt nähergekommen: Die Materialwissenschaftlerin von der Harvard University in Cambridge im US-Bundesstaat Massachusetts hat mit ihrem Team Biotinten und einen 3D-Drucker entwickelt, mit denen komplexes Gewebe aufgebaut werden kann.
Die Tinten m¨¹ssen wichtige Zutaten von lebendem Gewebe enthalten, damit sie sich mit diesem verbinden. Drei verschiedene haben die Forscher entwickelt, mit denen sie jeweils unterschiedliches Gewebe drucken: Eine dieser Tinten enthält eine extrazelluläre Matrix, auch Interzellularsubstanz genannt, die Gewebe zusammenhält. Tinte Nummer zwei enthält neben der extrazellulären Matrix noch lebende Zellen. Aus diesen Tinten lässt sich Gewebe mit unterschiedlichem Aufbau herstellen.
Forscher haben auch vorher schon 3D-Druck-Verfahren f¨¹r Gewebe entwickelt. Allerdings könne dieses nur sehr d¨¹nn sein. Dickeres Gewebe sterbe ab, erklärten die Harvard-Forscher: Den Zellen fehle Nahrung und Sauerstoff. Lebendes Gewebe sei zu diesem Zweck von d¨¹nnwandigen Blutgefäßen durchzogen, die diese zu den Zellen brächten sowie Kohlendioxid und Abfallstoffe abtransportierten.
Lewis hat mit ihrem Team deshalb eine weitere Biotinte entwickelt, um diese lebenswichtige Funktion nachzubauen: Mit der dritten Tinte können sie Blutgefäße herstellen. Diese hat eine ungewöhnliche Eigenschaft: Sie schmilzt, wenn sie abk¨¹hlt. Die Wissenschaftler drucken damit zunächst ein zusammenhängendes Netz von Fäden. Danach k¨¹hlen sie die Tinte und saugen sie ab - so entsteht ein Netz von kleinen Röhren in dem Gewebe.Die Wissenschaftler erzeugten auf diese Weise Gewebe unterschiedlicher Bauweise aus drei verschiedenen Zelltypen mit einem Netz von Blutgefäßen. Als sie in das Röhrensystem Endothelzellen injizierten, wuchsen diese nach und bildeten so eine Auskleidung in den Röhren.
Das Verfahren sei zwar "ein fr¨¹her, aber wichtiger Schritt hin zum Aufbau eines voll funktionsfähigen Ersatzes f¨¹r verletztes oder krankes Gewebe", erklären die Forscher. Insbesondere sei es ein wichtiger Fortschritt, dass Zellen in dem k¨¹nstlich hergestellten Gewebe ¨¹berlebten und w¨¹chsen. "Im Idealfall wollen wir der Biologie so viel Arbeit wie möglich ¨¹berlassen", sagte Lewis.Im nächsten Schritt wollen sich die Forscher darauf konzentrieren, 3D-Gewebe aufzubauen, das wirklichkeitsnah genug ist, um daran Arzneimittel zu testen. Daf¨¹r gebe es unmittelbar Bedarf, sagte Lewis. Das Ziel ist, irgendwann in der Lage zu sein, ein verletztes Körperteil mit einem Computertomographen abzutasten, das entsprechende Gewebe am Computer zu entwerfen, es dann von einem 3D-Drucker herstellen zu lassen und es schließlich dem Patienten einzusetzen.
Materialwissenschaftlerin Lewis hat bereits mehrere Spezialtinten f¨¹r verschiedene Anwendungen entwickelt. Damit lassen sich etwa Antennen drucken oder Schaltkreise malen. Ende vergangenen Jahres stellte sie einen 3D-gedruckten Akku vor. Die Biotinten beschreiben sie und ihr Team in der Fachzeitschrift Advanced Materials.
Wie sieht eigentlich ein Chamäleon oder ein Greifvogel die Welt? Und wie f¨¹hlt es sich an, sich selbst aus der Schulterperspektive zu betrachten? Golem.de hat The Constitute besucht und dort den Eyesect-Helm auf Basis eines Oculus Rift ausprobiert.
Als ich den Eyesect-Helm aufsetze, f¨¹hlt sich das an, als ob sich ein Alienschädel auf meinen Kopf senkt. Ich stelle fest: Von hinten betrachtet sehe ich ein bisschen wie der von H. R. Giger gestaltete Xenomorph aus. Ich entfremde mich von meinem eigenen Körper - nicht umsonst wird die Entfremdung eines Menschen von sich selbst im Englischen als Alienation bezeichnet.
Eyesect ist eine helmartige Konstruktion mit einem integrierten Head Mounted Display. Der geteilte Bildschirm ist durch etwa einen Meter lange Kabel mit zwei unabhängigen Kameras verbunden: Eine zeigt die linkte Monitorhälfte, die andere die rechte. Die Kameras werden per Magnet an der Kopfbedeckung befestigt, in den eigenen Händen oder von einer anderen Person gehalten. So kann der Nutzer völlig neue Perspektiven erleben: mit beiden Augen unabhängig sehen wie ein Chamäleon, rumdumblicken wie ein Frosch, aus der F¨¹hlerperspektive wie eine Schnecke die Welt erkunden oder ¨¹ber die eigene Schulter schauen wie in einem Rollenspiel.
"Anders sehen und anders aussehen gehört zusammen", erklärt der Designer Christian Zöllner von The Constitute. Die Berliner K¨¹nstlergruppe ging aus VR-Urban hervor und beschäftigt sich mit bionischen wie biologischen Effekten und virtuellen Realitäten. Zusammen mit dem Designer Sebastian Piatza und dem Ingenieur Julian Adenauer hat Zöllner den Eyesect-Prototyp entworfen.Mit horizontalen 240 Grad ist das maximale Gesichtsfeld von Eyesect deutlich breiter als das eines Menschen mit 180 Grad. Daher wirkt der erste Blick mit seitlich am Helm angebrachten Kameras so, als sei ein Fischaugenobjektiv verbaut - aber ohne die starke Kr¨¹mmung. Zum Vergleich: Frösche erreichen 330 von möglichen 360 Grad, einige Greifvögel erfassen etwa 300 Grad.Bereits nach kurzer Zeit gewöhnt sich das Gehirn an die ungewohnte Sicht: Wird die räumliche Auflösung gegen einen anteiligen Rundumblick getauscht, r¨¹ckt die Umgebung näher heran, Bewegungen wirken klarer und sind schneller erkennbar. Bei Fluchttieren wie Pferden oder jagenden Greifvögeln ist dieser Aspekt besonders wichtig.
Deutlich verwirrender ist es, eine Kamera nach vorne zu richten und eine nach schräg hinten - wie es ein Chamäleon mit seinen Augen tun kann. Diese Reptilien suchen die Umgebung mit voneinander unabhängigen Augenbewegungen ab, das horizontale Gesichtsfeld umfasst etwa 340 Grad. Ist eine Beute ausgemacht, fokussiert das Chamäleon diese mit beiden Augen und sieht dann binokular mit sehr guter räumlicher Auflösung wie ein Mensch. Das ist wichtig, um die Distanz f¨¹r die Schleuderzunge abschätzen zu können.Die fehlt nat¨¹rlich beim Eyesect-Prototyp, dennoch ist das Gehirn nach einiger Gewöhnung in der Lage, auch völlig unterschiedliche Kamerablickrichtungen - ein imaginäres Auge sieht nach vorne und eines schräg nach hinten - als ein Bild wahrzunehmen. Den Versatz versucht das Gehirn offenbar zu interpolieren.Nach mehreren Minuten fällt uns auf, dass einer der beiden Monitore deutlich größer wirkt und den anderen zu ¨¹berlagern scheint. Das zweite Monitorbild wird dadurch eher unterbewusst wahrgenommen - dies ist auf die Augendominanz zur¨¹ckzuf¨¹hren: Das menschliche Gehirn fusioniert zwar beide retinalen Bilder, die von der Netzhaut erfasst werden, bevorzugt jedoch die Informationen eines Auges.
Da die Kameras an Kabeln befestigt sind, dienen sie in die Hände genommen als eine Art F¨¹hler oder Fangarme mit Augen. Wir haben versucht, uns wie eine Raubkatze in geduckter Haltung nahe am Boden schleichend zu bewegen und die vor uns stehende Gopro-Kamera optisch abzutasten.Das Ausstrecken des linken Arms kommt einer frontalen Vergrößerung gleich, der rechte Arm beäugt das kleine Aufnahmegerät von der Seite. Das f¨¹hlt sich an wie ein Krake, der ein Beutetier aus allen Richtungen fixiert, kurz bevor er zupackt. Aus Sicht der Gopro hingegen wirkt dieses Taxieren unangenehm und bedrohlich, der feste Blickwinkel vermittelt bedr¨¹ckende Enge.Besonders interessant ist die Erfahrung, sich selbst wie eine Computerspielfigur aus der virtuellen Schulterperspektive zu sehen und so die echte Welt zu erkunden. Hierzu haben wir die beiden Kameras einer anderen Person in die Hände gedr¨¹ckt und diese ist uns mit erhobenen Armen auf Schritt und Tritt gefolgt. Die Kameras befinden sich somit schräg hinter uns, oberhalb des Kopfes.
Auf dem Head Mounted Display sieht das so aus, als w¨¹rden wir uns wie in einem Rollenspiel fortbewegen - diese Perspektive wirkt f¨¹r Spieler vertraut und recht angenehm, da das binokulare Sehen nicht verloren geht, die ¨¹bersicht sich aber deutlich verbessert.F¨¹r die technische Umsetzung des Eyesect-Projekts hatte Sebastian Piatza anfangs die Cinemizer OLED im Blick. Das erste Dev-Kit des Oculus Rift weckte Ende 2012 aber schnell das Interesse des Entwicklers: Eyesect war das Thema von Piatzas Masterarbeit, und diese musste im Juni 2013 abgegeben werden.Als Augen dienen zwei Platinenkameras mit Weitwinkelobjektiven mit einem horizontalen wie vertikalen Öffnungswinkel von jeweils 120 respektive 132 Grad. Die Kameras hat The Constitute so konfiguriert, dass sie mit 800 x 640 Pixeln aufnehmen können. Dies entspricht der Auflösung einer Bildschirmhälfte des Oculus Rift. Beide Kamerabilder werden im Vollbild nebeneinander platziert und alle 16,7 Millisekunden aktualisiert.Die Kameras und das Oculus Rift sind mit einem Pico-ITX-Computer verbunden, dieser basiert auf einer Kontron-Embedded-Platine. Als Prozessor dient ein Silverthorne-Atom-Chip mit einem Kern und DDR2-Speicher. Mehr Rechenleistung ist nicht notwendig, um den simplen Code auszuf¨¹hren, der die 60 Bilder pro Sekunde von den Kameras an das Rift weitergibt. Als Betriebssystem kommt Windows 7 zum Einsatz - zwar wäre den Erfindern Linux lieber gewesen, hier funktionieren aber die Kameratreiber nicht wie gew¨¹nscht.