
Rok 2025 przyniósł największy skok technologiczny w rozszerzonej rzeczywistości od czasu premiery pierwszych smart-okularów. Podczas Augmented World Expo 2025 w Long Beach kalifornijski duet Qualcomm + Snap pokazał, że konwergencja chipów, okularów i śledzenia oczu bez kamer nie jest już wizją jutra, lecz namacalnym produktem, który wkrótce trafi do masowej sprzedaży.
Snapdragon AR1+ Gen 1 – najmocniejszy układ AI dla okularów
Nowy Snapdragon AR1+ Gen 1 to pierwszy układ, który uruchamia miliard-parametrowy model Meta Llama 3.2 całkowicie na okularach, bez chmury i bez telefonu. Czas do wygenerowania pierwszego tokenu spada do 1,2 s, a zużycie energii jest o kilkanaście procent niższe niż w poprzedniej generacji.
Mniejsza obudowa, większa wydajność
Dzięki integracji nowych bloków computer vision i zoptymalizowanej litografii, wysokość zausznika w referencyjnej oprawce zmniejszono o 20 %, co pozwala projektować okulary nieodróżnialne od klasycznych zerówek. W praktyce użytkownik zyskuje lżejszą konstrukcję, lepszą stabilizację obrazu i tryb Wake with Voice, który budzi urządzenie wyłącznie na komendę głosową.
Snap Specs 2026 – lżejsze i w pełni samodzielne
Podczas keynote’u Evan Spiegel potwierdził, że konsumencka wersja Snap Specs trafi do sklepów w 2026 r. Okulary nie wymagają telefonu, puka ani kabla, a ich masa ma spaść do ≈70 g. Zasilane Snapdragonem i nowym Snap OS zaoferują tłumaczenie tekstu na żywo, multimodalne Lenses oparte na OpenAI oraz natywną obsługę gestów.
NeuralDisplay – śledzenie oczu bez pojedynczej kamery
Największe owacje na AWE zebrała firma Kopin. Ich NeuralDisplay™ łączy tradycyjne piksele RGB z pikselami czujnikowymi, dzięki czemu śledzi ruch gałek ocznych bez użycia kamer IR. Efekt? Redukcja ciężaru, poboru mocy i całkowita eliminacja problemów z prywatnością, bo dane nie są opuszczają mikrowyświetlacza.
Technologia, która widzi więcej niż oko
Prototyp NeuralDisplay wykonany w OLED-zie (z gotowością pod MicroLED) samodzielnie koryguje jasność i kontrast, śledzi zmęczenie poprzez analizę mrugnięć oraz mierzy pupil dilation, reagując na reakcje stresowe użytkownika. W planach jest automatyczna wergencja, która dynamicznie ustawia punkt zbieżności, likwidując mdłości w AR.
KiWear Smart Ring – gesty w pierścieniu
Aby w pełni wykorzystać możliwości nowych chipów i wyświetlaczy, KiWear pokazał smart ring opracowany wspólnie z Qualcommem. Pierścień rozpoznaje ruchy palców, obroty i mikro-gesty dzięki 9-osiowemu IMU, a haptyka zwrotna potwierdza komendy. Referencyjny design jest już dostępny dla producentów planujących okulary z Android XR.
Brak kamer = przełom w prywatności i baterii
Usunięcie kamer z obu zauszników to nie tylko redukcja wagi. To także likwidacja ryzyka podglądu osób trzecich i 40–50 % oszczędności energii przy ciągłym śledzeniu wzroku. Dzięki temu bateria w okularach może być mniejsza, a jednocześnie wystarczyć na cały dzień użytkowania. To kluczowy wymóg, który wreszcie staje się realny.
Ekosystem: od krzemu po oprogramowanie
Qualcomm otworzył Snapdragon Spaces na Android XR, upraszczając portowanie aplikacji 3D. Snap odpowiada nowym Depth Module API i Snap3D API, które w ciągu kilku linijek kodu zamieniają dane z modeli językowych w zakotwiczone obiekty 3D. Efekt to szybszy time-to-market dla deweloperów i lepsze doświadczenia dla użytkowników końcowych.
Perspektywy rynku po AWE 2025
Analitycy prognozują 60 % CAGR dla segmentu smart-okularów do 2029 r. Napędzany zwłaszcza przez integrację AI on-device, miniaturyzację optyki i nowe interfejsy gestów. Gdy Snap wpuści Specs do sklepów, a kolejne marki skopiują NeuralDisplay, AR wreszcie może wyjść z niszy – podobnie jak smartfony po premierze pierwszego iPhone’a.
Podsumowanie: ku naturalnej rzeczywistości rozszerzonej
Wspólna ofensywa Qualcomm, Snap, Kopin i KiWear pokazuje, że hardware, software i interakcja dojrzewają równolegle. Lokalna sztuczna inteligencja, okulary lekkie jak klasyczne oprawki i śledzenie wzroku bez kamer. Tworzą fundament dla XR, który – nareszcie – nie wygląda futurystycznie, lecz codziennie użytecznie.




