KI-Wearables haben ein schlechtes Jahr hinter sich.
Noch vor wenigen Monaten war die Technologiewelt davon überzeugt, dass KI-Hardware das nächste große Ding sein könnte. Es war eine berauschende Vision, unterstützt durch futuristische Demos und elegante Hardware. Im Mittelpunkt der Begeisterung standen der Humane AI Pin und der Rabbit R1. Beide versprachen eine grandiose Zukunft. Keiner hat die Ware geliefert.
Es ist eine alte Geschichte in der Gadget-Welt. Datenbrillen und Augmented-Reality-Headsets erlebten vor einem Jahrzehnt einen ähnlichen Hype-Zyklus. Google Glass versprach berüchtigterweise eine Zukunft, in der die Realität mit hilfreichen Informationen überlagert wird. Seitdem haben Magic Leap, Focals By North, Microsofts HoloLens, Apples Vision Pro und zuletzt die neuen Snapchat Spectacles versucht, die Vision am Leben zu erhalten, hatten jedoch keinen wirklichen kommerziellen Erfolg.
Alles in allem ist es also ein wenig ironisch, dass die beste Chance auf ein funktionsfähiges KI-Wearable eine Datenbrille ist – genauer gesagt die Ray-Ban Meta-Datenbrille.
Das Witzige an den Meta-Datenbrillen ist, dass niemand damit gerechnet hat, dass sie so erfolgreich sind wie sie. Teilweise, weil die erste Auflage, die Ray-Ban Stories, kategorisch ein Flop war. Teilweise, weil es sich nicht um intelligente Brillen handelte, die neue Ideen boten. Bose hatte bereits stilvolle Audio-Sonnenbrillen hergestellt und dann den gesamten Betrieb eingestellt. Snap Spectacles hat bereits versucht, kurze Videos für soziale Netzwerke aufzunehmen, aber auch das war offensichtlich nicht gut genug. Auf dem Papier gab es keinen zwingenden Grund, warum die Ray-Ban Meta-Datenbrille bei den Menschen Anklang finden sollte.
Und doch haben sie Erfolg gehabt, was andere KI-Wearables und Datenbrillen nicht geschafft haben. Bemerkenswerterweise übertrifft es sogar Metas eigene Erwartungen.
Vieles davon läuft darauf hinaus, dass Meta endlich Stil und Ausführung perfektioniert. Die Meta-Brillen sind im Vergleich zu den Stories in vielen verschiedenen Stilen und Farben erhältlich. Sie werden fast garantiert etwas finden, das Ihnen gut steht. In dieser Hinsicht war Meta schlau genug, um zu verstehen, dass der Durchschnittsmensch nicht so aussehen möchte, als wäre er gerade einem Science-Fiction-Film entsprungen. Sie wollen nach heutigen Maßstäben cool aussehen.
Mit 299 US-Dollar sind sie teuer, aber im Vergleich zu einem Vision Pro für 3.500 US-Dollar oder einem Humane-Pin für 699 US-Dollar erschwinglich. Die Audioqualität ist gut. Dank eines gut positionierten Mikrofons im Nasenrücken ist die Gesprächsqualität überraschend gut. Im Gegensatz zu den Stories oder den früheren Spectacles von Snap ist die Video- und Fotoqualität gut genug, um sie auf Instagram zu posten, ohne sich zu schämen – insbesondere im Zeitalter der Content-Ersteller, wo Instagram Reels und TikToks im POV-Stil eine Nummer eins sind.
Dies ist ein Gerät, das sich jetzt problemlos in das Leben der Menschen integrieren lässt. Es gibt kein zukünftiges Software-Update, auf das man warten muss. Es ist keine Lösung, die nach einem zu lösenden Problem sucht. Und das ist vor allem der Grund, warum die Ray-Bans eine Chance haben, die KI erfolgreich zu ergründen.
Das liegt daran, dass KI bereits vorhanden ist – es ist nur eine Funktion, nicht die ganze Sache. Sie können damit Objekte identifizieren, auf die Sie stoßen, oder Ihnen mehr über eine Sehenswürdigkeit erzählen. Sie können Meta AI bitten, zweifelhafte Untertitel für Ihren Instagram-Beitrag zu schreiben oder eine Speisekarte zu übersetzen. Sie können einen Freund per Videoanruf anrufen und dieser kann sehen, was Sie sehen. Alle diese Anwendungsfälle sind für das Gerät und die Art und Weise, wie Sie es verwenden würden, sinnvoll.
In der Praxis sind diese Funktionen etwas seltsam und unelegant. Meta AI hat mir noch keine gute Instagram-Bildunterschrift geschrieben und kann mich in lauten Umgebungen oft nicht gut hören. Aber im Gegensatz zum Rabbit R1 funktioniert es. Im Gegensatz zu Humane kommt es nicht zu einer Überhitzung und es gibt keine Latenz, da für die Verarbeitung Ihr Telefon verwendet wird. Entscheidend ist, dass die KI im Gegensatz zu diesen beiden Geräten immer noch andere Dinge sehr gut erledigen kann, wenn sie ins Bett geht.
Das ist gut genug. Zur Zeit. Der Druck für die Zukunft ist groß. Metas Schachzug besteht darin, dass Menschen, die einfachere Datenbrillen verwenden können, sich mit Gesichtscomputern wohler fühlen, wenn KI – und schließlich auch AR – für die Hauptsendezeit bereit sind.
Sie haben den ersten Teil der Gleichung bewiesen. Aber wenn Letzteres wahr wird, kann die KI nicht in Ordnung oder brauchbar sein. Es muss wirklich gut sein. Es muss den Sprung von „Oh, das ist irgendwie praktisch, wenn es funktioniert“ zu „Ich trage den ganzen Tag Datenbrillen, weil mein Leben mit ihnen so viel einfacher ist als ohne“ schaffen. Im Moment sind viele der KI-Funktionen der Meta-Brille nette, aber im Wesentlichen Partytricks.
Das ist eine große Herausforderung, aber von allen da draußen scheint Meta am besten in der Lage zu sein, erfolgreich zu sein. Stil und Tragbarkeit sind kein Problem. Das Unternehmen hat gerade einen Vertrag mit EssilorLuxxotica unterzeichnet, um seine Partnerschaft mit Datenbrillen über das Jahr 2030 hinaus zu verlängern. Da es nun einen allgemeinen Entwurf für die Hardware gibt, sind schrittweise Verbesserungen wie ein besserer Akku und leichtere Passformen möglich. Bleibt nur noch abzuwarten, ob Meta den Rest gutmachen kann.
Das Unternehmen wird nächste Woche bei seinem Meta Connect-Event die Gelegenheit haben, zu beweisen, dass es das kann. Es ist Hauptsendezeit. Die täglichen Erträge von Humane übertreffen die Verkäufe. Kritiker werfen Rabbit vor, kaum mehr als ein Betrug zu sein. Experten sind nicht davon überzeugt, dass Apples großer KI-inspirierter „Superzyklus“ mit dem iPhone 16 überhaupt stattfinden wird. Ein Sieg hier würde nicht nur Metas Vorsprung festigen, sondern auch dazu beitragen, den Traum von KI-Hardware am Leben zu erhalten.