Juli 20, 2024

askAHYO.com

Nachrichten, ausgefallene Geschichten und Analysen zum deutschen und internationalen Geschehen. Tauchen Sie tiefer ein mit unseren Features aus Europa und darüber hinaus. Sehen Sie sich unseren 24/7-TV-Stream an.

Ein genauerer Blick auf die Vision Pro-Tastatur und andere Bedienelemente von Apple

Ein genauerer Blick auf die Vision Pro-Tastatur und andere Bedienelemente von Apple

Eine Apple-Entwicklersitzung bot einen detaillierten Einblick in die vielen Möglichkeiten, wie Benutzer das neue Vision Pro-Headset (irgendwann) steuern werden, einschließlich einer virtuellen Tastatur, auf der Sie in der Luft tippen können. Dank kommt zu uns Sitzung zum räumlichen Eingabedesignin dem zwei Mitglieder des Apple-Designteams potenzielle Entwickler durch Best Practices zum Entwerfen von Apps für die neue Plattform führen.

Apple scheint daran interessiert zu sein, dass Benutzer hauptsächlich mit dem Headset interagieren, indem sie einfach auf die Elemente der Benutzeroberfläche schauen und kleine Handgesten machen, während ihre Arme auf dem Schoß ruhen. Aber in seiner Entwicklersitzung gibt Apple-Designer Israel Pastrana Vicente zu, dass „einige Aufgaben besser für die direkte Interaktion geeignet sind“, wozu auch das Greifen und Berühren von Elementen der Benutzeroberfläche gehören könnte (eine Funktion, die Apple als „direkte Berührung“ bezeichnet). Es gibt auch Unterstützung für die Verwendung physischer Tastaturen und Gamepads oder Gamecontroller.

Manche Aufgaben eignen sich besser für die direkte Interaktion.

Sprechen wir also über die virtuelle Tastatur des Vision Pro. Apple-Designer Eugene Krivoruchko erklärt, dass es wichtig ist, bei der Nutzung ausreichend visuelles und akustisches Feedback zu geben, um die „fehlenden taktilen Informationen“ auszugleichen, die mit der Berührung der Lesespitze einhergehen. „Während sich der Finger über der Tastatur befindet, zeigen die Tasten einen Schwebezustand und eine Hervorhebung, die heller wird, je näher man der Tastenoberfläche kommt“, erklärt Krivoruchko. „Es liefert ein Affinitätssignal und hilft dabei, den Finger zum Ziel zu führen. Im Moment des Kontakts erfolgt die Zustandsänderung schnell und reaktionsschnell und wird von einem passenden räumlichen Klangeffekt begleitet.“

Siehe auch  Google One VPN beginnt mit der Einführung auf Pixel 7- und 7 Pro-Telefonen

Es gibt auch Unterstützung für die Spracheingabe, wobei in derselben Entwicklersitzung festgestellt wurde, dass „Speak to Search“ ausgelöst wird, wenn Sie Ihren Blick auf das Mikrofonsymbol im Suchfeld richten. Dadurch werden höchstwahrscheinlich Audiodaten aus einer Datei abgerufen Sechs Mikrofone Integriert in Vision Pro.

Durch direkte Berührung kann auch mit anderen Systemelementen interagiert werden. Es besteht die Möglichkeit, zu tippen und zu wischen, als ob Sie mit einem Touchscreen interagieren würden, und in der Demo von Apple wird gezeigt, wie der Träger eine Stiftbewegung in der Luft ausführt, um ein Wort zu schreiben und in Markup eine Herzform zu zeichnen. Obwohl die primäre Interaktion über die Hand des Benutzers erfolgt, zeigt Krivoruchko, wie es auch Eye-Tracking nutzt, um Gesten zu verbessern. „Sie können den Pinselcursor mit der Hand steuern, ähnlich wie einen Mauszeiger, aber wenn Sie dann auf die andere Seite der Leinwand schauen und klicken, springt der Cursor dorthin und landet genau dort, wo Sie hinschauen. Das erzeugt ein Gefühl von Präzision.“ und hilft dabei, die große Leinwand schnell abzudecken“, sagt der Designer.

Wir haben immer noch viele Fragen dazu, wie Apples teures neues Vision Pro-Headset in der Praxis funktionieren wird (insbesondere seine Fähigkeit, es mit Motion-Controllern anderer Hersteller zu koppeln), aber mit unserer praktischen Erfahrung und Entwicklersitzungen wie dieser beginnt die Erfahrung in den Fokus rücken.