technika
Autor: Wiesław B. Pietrzak | dodano: 2013-09-25
Piąty wymiar rzeczywistości

Fot. Getty Images/Flash Press Media

Dotychczas opisywaliśmy otoczenie, posługując się czterema pojęciami – długością, szerokością, wysokością i czasem. Ostatnio, dzięki technice, coraz częściej postrzegany przez nas świat jest wzbogacony o elementy cyfrowe.

Korzystając ze smartfonu z odpowiednim oprogramowaniem, można oglądać przestrzeń dokładnie tak samo jak podczas fotografowania. Jeśli jednak w kadrze pojawi się odpowiedni znacznik, na ekranie telefonu generowana jest w czasie rzeczywistym wirtualna treść. Najczęściej na opakowaniu produktu, okładce, plakacie umieszczony jest kod QR (Quick Response). Po zeskanowaniu kodu smartfon pobiera odpowiednią aplikację. Do prawidłowego działania potrzebuje ona jeszcze znacznika – unikalnego obrazu, który uzna za impuls do wyświetlenia grafiki. Może to być strona w gazecie, reklama, strona internetowa, opakowanie produktu albo wręcz dowolny przedmiot.

Kilka lat temu wydawało się, że rzeczywistość rozszerzona (AR – augmented reality) jeszcze długo pozostanie rozwiązaniem dostępnym jedynie dla wielkich studiów reklamowych i laboratoriów naukowych. Obecnie jednak – przede wszystkim dzięki rozwojowi łączności mobilnej – aplikacje AR są już dostępne dla każdego użytkownika smartfonu czy tabletu. Obecnie przeciętnej klasy urządzenie ma dość mocy obliczeniowej, aby z powodzeniem wyświetlać trójwymiarowe, animowane i interaktywne prezentacje. Mimo że AR jeszcze raczkuje, widać jej ogromny potencjał. Już w tej chwili wpływa na niemal wszystkie sfery naszego życia: medycynę, nawigację, architekturę, różnorodne symulacje, edukację czy rozrywkę.

AR pozwala na interakcję użytkownika z danym obrazem w czasie rzeczywistym. To znaczy, że możemy mieć wpływ na zachowanie obiektów istniejących tylko w wirtualnej rzeczywistości. Na ekranie telewizora, komputera czy komórki obserwujemy otaczający nas świat widziany okiem kamery. Pośród faktycznie otaczających nas rzeczy pojawiają się inne – stworzone cyfrowo. W grze dla dzieci EyePet oprócz nas na dywanie w salonie baraszkuje również dziwne zwierzę, które choć wygenerowane cyfrowo, reaguje na nasz dotyk.

Informatycy z Politechniki Wrocławskiej wskrzesili wymarłego przed kilkoma wiekami… tura. Zachowuje się jak normalny zwierz: włóczy się po wybiegu, załatwia, a gdy poczuje głód – skubie siano. Tura nie zobaczymy gołym okiem, ale na własnym smartfonie lub tablecie, na które musimy ściągnąć darmową aplikację. Dopiero wtedy na wybiegu pojawi się zwierzę. Tur reaguje na to, co dzieje się po drugiej stronie kamery: idzie w nakazane przez nas miejsce, patrzy we wskazanym kierunku albo parska zniecierpliwiony, gdy zbyt długo nie dajemy mu spokoju. Trójwymiarowy model wyświetlany jest w odpowiedniej perspektywie, dzięki czemu można odnieść wrażenie, iż tur naprawdę znajduje się w miejscu, w które wycelowany jest obiektyw aparatu.

W powietrzu i na ziemi

Pionier prac nad rzeczywistością rozszerzoną, Ronald Azuma, definiuje ją jako system scalający świat realny z rzeczywistością wirtualną, interaktywny w czasie rzeczywistym i umożliwiający swobodę ruchów w trzech wymiarach. W rzeczywistości rozszerzonej odbierane przez nasze zmysły informacje ze świata fizycznego uzupełniane są tzw. wirtualną powłoką. Może to być zarówno prosty przekaz (nazwy ulic, strzałki nawigacyjne), jak i bardziej skomplikowany, np. w postaci obiektów fotorealistycznych używanych chociażby w wirtualnej rekonstrukcji historycznych budynków. Zdarza się coraz częściej, że wirtualne rozszerzenie trudno odróżnić od rzeczywistości.

Jeszcze niedawno z tego rozwiązania korzystało głównie lotnictwo wojskowe – na cyfrową mapę obserwowaną przez pilotów komputer nakładał obraz z ważnymi danymi dotyczącymi ukształtowania terenu, nad którym się przemieszczali, oraz informującymi o występujących na nim obiektach przeciwnika i zagrożeniach, jakie sobą prezentują. Na przedniej szybie wyświetlane były informacje o parametrach lotu i sytuacji w powietrzu. Później AR znalazła zastosowanie w indywidualnym wyposażeniu żołnierzy piechoty do przekazywania informacji o znajdujących się wokół obiektach oraz rozmieszczeniu sił własnych i przeciwnika. W tym rozwiązaniu charakterystycznym elementem jest monokular, który wyświetla potrzebne informacje. W innej odmianie jest to opuszczana na twarz przezroczysta przyłbica, tzw. HUD (head up display), na której prezentowany jest cyfrowy przekaz.

Armia amerykańska chce wykorzystać rzeczywistość rozszerzoną w jeszcze jednej dziedzinie – medycynie. Na polu bitwy medycy działają w ogromnym stresie, muszą błyskawicznie podejmować decyzje i mogą korzystać tylko ze swojej wiedzy. W takich warunkach łatwo o pomyłkę. Zmienić ma to projekt „Battle Medical Situational Awareness Goggles”. Sanitariusze US Army otrzymają przezierne wyświetlacze, na bieżąco dostarczające wskazówki i dane o pacjencie – informacje o przebytych chorobach, jego schorzeniach i podawanych lekach – a wszystko to prosto z centralnej bazy danych wojskowej służby zdrowia. Medyk mógłby aktywować odpowiednią funkcję głosem.

Firma Vuzix (producent okularów z oprogramowaniem AR) oraz dwaj stali dostawcy Pentagonu – Northrop Grumman i Raytheon – zajmują się rozwiązaniem innego zadania, dzięki któremu oddziały piechoty szybciej otrzymają wsparcie powietrzne na polu bitwy. Obecnie prośba żołnierza o wsparcie lotnicze musi pokonać długą drogę, zanim rozkaz trafi do pilota samolotu. Pentagon chce ominąć tę skomplikowaną procedurę, umożliwiając żołnierzom na ziemi bezpośrednie połączenie z pilotem. Pokrótce: koncept zakłada stworzenie „hologogli” połączonych z czujnikiem namierzającym, który na bieżąco dostarczy informacji o możliwych do wykorzystania środkach lotniczych. Stephen Glaser z Vuzixu tak mówił o pomyśle: „Czujnik umieszczony na głowie rozpoznaje, w którą stronę żołnierz patrzy, więc widziane przez niego informacje zmieniają się wraz z obracaniem głowy. Teoretycznie można spojrzeć w niebo, a pojawienie się małego zielonego trójkącika oznaczałoby, że w odległości 50 km jest F-16 znajdujący się na wysokości 6 km. System mógłby również pokazywać, jakiego rodzaju uzbrojenie przenosi samolot – żołnierz mógłby więc podjąć szybką decyzję, czy konkretny F-16 byłby mu pomocny”.

Świat ma warstwy

Jednym z najbardziej powszechnych dziś zastosowań rzeczywistości rozszerzonej jest nawigacja. Pierwsza wyszukiwarka działająca w AR na urządzenia mobilne powstała w 2011 r. w firmie Layar. Była to usługa o tej samej nazwie, która mieszała świat realny z cyfrowym. Jej zadaniem było nie tylko proste nakładanie informacji na obraz z kamery – po identyfikacji obiektu można było zobaczyć wideo przedstawiające jego obraz sprzed kilkudziesięciu lat. Layar potrafi też wyświetlić informacje na podkładzie z mapy.

Inną popularną aplikacją tego typu jest Wikitude, w efektowny sposób nanosząca informację na obraz z kamery. Każdy może przygotować własną warstwę informacyjną, tzw. świat. W programie jest ich około 3 tys. Warstwa „Wokół mnie” prezentuje punkty z różnych źródeł, znajdujące się w pobliżu miejsca przebywania użytkownika. Jest też warstwa informacyjna wyświetlająca zdjęcia i lokalizację znajomych z Facebooka. W Wikitude znajdują się też otagowane (wzbogacone o słowa klucze) geograficznie artykuły z Wikipedii oraz punkty pobrane z serwisów Yelp i Foursquare, polecających usługi np. restauracyjno-hotelowe. Informacje geograficzne można wyświetlać na podkładzie z Map Google.

Nokia wraz z Microsoftem stworzyły świetną aplikację City Lens, wyświetlającą informacje o otoczeniu: sklepach, restauracjach, stacjach benzynowych, bankomatach, aptekach. Dodatkowo pokazuje, jak do nich dotrzeć i pozwala szybko polecać lokalizacje znajomym. Informacje można wyszukiwać tematycznie – jeśli np. rozglądamy się za lokalem gastronomicznym, stosowna treść ukaże się na tle właściwych budynków.

Więcej w miesięczniku „Wiedza i Życie" nr 10/2013 »
Drukuj »
Ten artykuł nie został jeszcze skomentowany.
Aktualne numery
09/2020
08/2020
Kalendarium
Wrzesień
20
W 1970 r. radziecka sonda Łuna 16 wylądowała na Księżycu.
Warto przeczytać
Sztuczna inteligencja to kolejna publikacja wydana wz oksfordzkiej serii „Krótkie Wprowadzenie”, która w zwięzły i przystępny sposób prezentuje wybrane zagadnienia.

WSPÓŁPRACUJEMY
Logowanie

Nazwa użytkownika

Hasło

Autor: Wiesław B. Pietrzak | dodano: 2013-09-25
Piąty wymiar rzeczywistości

Fot. Getty Images/Flash Press Media

Dotychczas opisywaliśmy otoczenie, posługując się czterema pojęciami – długością, szerokością, wysokością i czasem. Ostatnio, dzięki technice, coraz częściej postrzegany przez nas świat jest wzbogacony o elementy cyfrowe.

Korzystając ze smartfonu z odpowiednim oprogramowaniem, można oglądać przestrzeń dokładnie tak samo jak podczas fotografowania. Jeśli jednak w kadrze pojawi się odpowiedni znacznik, na ekranie telefonu generowana jest w czasie rzeczywistym wirtualna treść. Najczęściej na opakowaniu produktu, okładce, plakacie umieszczony jest kod QR (Quick Response). Po zeskanowaniu kodu smartfon pobiera odpowiednią aplikację. Do prawidłowego działania potrzebuje ona jeszcze znacznika – unikalnego obrazu, który uzna za impuls do wyświetlenia grafiki. Może to być strona w gazecie, reklama, strona internetowa, opakowanie produktu albo wręcz dowolny przedmiot.

Kilka lat temu wydawało się, że rzeczywistość rozszerzona (AR – augmented reality) jeszcze długo pozostanie rozwiązaniem dostępnym jedynie dla wielkich studiów reklamowych i laboratoriów naukowych. Obecnie jednak – przede wszystkim dzięki rozwojowi łączności mobilnej – aplikacje AR są już dostępne dla każdego użytkownika smartfonu czy tabletu. Obecnie przeciętnej klasy urządzenie ma dość mocy obliczeniowej, aby z powodzeniem wyświetlać trójwymiarowe, animowane i interaktywne prezentacje. Mimo że AR jeszcze raczkuje, widać jej ogromny potencjał. Już w tej chwili wpływa na niemal wszystkie sfery naszego życia: medycynę, nawigację, architekturę, różnorodne symulacje, edukację czy rozrywkę.

AR pozwala na interakcję użytkownika z danym obrazem w czasie rzeczywistym. To znaczy, że możemy mieć wpływ na zachowanie obiektów istniejących tylko w wirtualnej rzeczywistości. Na ekranie telewizora, komputera czy komórki obserwujemy otaczający nas świat widziany okiem kamery. Pośród faktycznie otaczających nas rzeczy pojawiają się inne – stworzone cyfrowo. W grze dla dzieci EyePet oprócz nas na dywanie w salonie baraszkuje również dziwne zwierzę, które choć wygenerowane cyfrowo, reaguje na nasz dotyk.

Informatycy z Politechniki Wrocławskiej wskrzesili wymarłego przed kilkoma wiekami… tura. Zachowuje się jak normalny zwierz: włóczy się po wybiegu, załatwia, a gdy poczuje głód – skubie siano. Tura nie zobaczymy gołym okiem, ale na własnym smartfonie lub tablecie, na które musimy ściągnąć darmową aplikację. Dopiero wtedy na wybiegu pojawi się zwierzę. Tur reaguje na to, co dzieje się po drugiej stronie kamery: idzie w nakazane przez nas miejsce, patrzy we wskazanym kierunku albo parska zniecierpliwiony, gdy zbyt długo nie dajemy mu spokoju. Trójwymiarowy model wyświetlany jest w odpowiedniej perspektywie, dzięki czemu można odnieść wrażenie, iż tur naprawdę znajduje się w miejscu, w które wycelowany jest obiektyw aparatu.

W powietrzu i na ziemi

Pionier prac nad rzeczywistością rozszerzoną, Ronald Azuma, definiuje ją jako system scalający świat realny z rzeczywistością wirtualną, interaktywny w czasie rzeczywistym i umożliwiający swobodę ruchów w trzech wymiarach. W rzeczywistości rozszerzonej odbierane przez nasze zmysły informacje ze świata fizycznego uzupełniane są tzw. wirtualną powłoką. Może to być zarówno prosty przekaz (nazwy ulic, strzałki nawigacyjne), jak i bardziej skomplikowany, np. w postaci obiektów fotorealistycznych używanych chociażby w wirtualnej rekonstrukcji historycznych budynków. Zdarza się coraz częściej, że wirtualne rozszerzenie trudno odróżnić od rzeczywistości.

Jeszcze niedawno z tego rozwiązania korzystało głównie lotnictwo wojskowe – na cyfrową mapę obserwowaną przez pilotów komputer nakładał obraz z ważnymi danymi dotyczącymi ukształtowania terenu, nad którym się przemieszczali, oraz informującymi o występujących na nim obiektach przeciwnika i zagrożeniach, jakie sobą prezentują. Na przedniej szybie wyświetlane były informacje o parametrach lotu i sytuacji w powietrzu. Później AR znalazła zastosowanie w indywidualnym wyposażeniu żołnierzy piechoty do przekazywania informacji o znajdujących się wokół obiektach oraz rozmieszczeniu sił własnych i przeciwnika. W tym rozwiązaniu charakterystycznym elementem jest monokular, który wyświetla potrzebne informacje. W innej odmianie jest to opuszczana na twarz przezroczysta przyłbica, tzw. HUD (head up display), na której prezentowany jest cyfrowy przekaz.

Armia amerykańska chce wykorzystać rzeczywistość rozszerzoną w jeszcze jednej dziedzinie – medycynie. Na polu bitwy medycy działają w ogromnym stresie, muszą błyskawicznie podejmować decyzje i mogą korzystać tylko ze swojej wiedzy. W takich warunkach łatwo o pomyłkę. Zmienić ma to projekt „Battle Medical Situational Awareness Goggles”. Sanitariusze US Army otrzymają przezierne wyświetlacze, na bieżąco dostarczające wskazówki i dane o pacjencie – informacje o przebytych chorobach, jego schorzeniach i podawanych lekach – a wszystko to prosto z centralnej bazy danych wojskowej służby zdrowia. Medyk mógłby aktywować odpowiednią funkcję głosem.

Firma Vuzix (producent okularów z oprogramowaniem AR) oraz dwaj stali dostawcy Pentagonu – Northrop Grumman i Raytheon – zajmują się rozwiązaniem innego zadania, dzięki któremu oddziały piechoty szybciej otrzymają wsparcie powietrzne na polu bitwy. Obecnie prośba żołnierza o wsparcie lotnicze musi pokonać długą drogę, zanim rozkaz trafi do pilota samolotu. Pentagon chce ominąć tę skomplikowaną procedurę, umożliwiając żołnierzom na ziemi bezpośrednie połączenie z pilotem. Pokrótce: koncept zakłada stworzenie „hologogli” połączonych z czujnikiem namierzającym, który na bieżąco dostarczy informacji o możliwych do wykorzystania środkach lotniczych. Stephen Glaser z Vuzixu tak mówił o pomyśle: „Czujnik umieszczony na głowie rozpoznaje, w którą stronę żołnierz patrzy, więc widziane przez niego informacje zmieniają się wraz z obracaniem głowy. Teoretycznie można spojrzeć w niebo, a pojawienie się małego zielonego trójkącika oznaczałoby, że w odległości 50 km jest F-16 znajdujący się na wysokości 6 km. System mógłby również pokazywać, jakiego rodzaju uzbrojenie przenosi samolot – żołnierz mógłby więc podjąć szybką decyzję, czy konkretny F-16 byłby mu pomocny”.

Świat ma warstwy

Jednym z najbardziej powszechnych dziś zastosowań rzeczywistości rozszerzonej jest nawigacja. Pierwsza wyszukiwarka działająca w AR na urządzenia mobilne powstała w 2011 r. w firmie Layar. Była to usługa o tej samej nazwie, która mieszała świat realny z cyfrowym. Jej zadaniem było nie tylko proste nakładanie informacji na obraz z kamery – po identyfikacji obiektu można było zobaczyć wideo przedstawiające jego obraz sprzed kilkudziesięciu lat. Layar potrafi też wyświetlić informacje na podkładzie z mapy.

Inną popularną aplikacją tego typu jest Wikitude, w efektowny sposób nanosząca informację na obraz z kamery. Każdy może przygotować własną warstwę informacyjną, tzw. świat. W programie jest ich około 3 tys. Warstwa „Wokół mnie” prezentuje punkty z różnych źródeł, znajdujące się w pobliżu miejsca przebywania użytkownika. Jest też warstwa informacyjna wyświetlająca zdjęcia i lokalizację znajomych z Facebooka. W Wikitude znajdują się też otagowane (wzbogacone o słowa klucze) geograficznie artykuły z Wikipedii oraz punkty pobrane z serwisów Yelp i Foursquare, polecających usługi np. restauracyjno-hotelowe. Informacje geograficzne można wyświetlać na podkładzie z Map Google.

Nokia wraz z Microsoftem stworzyły świetną aplikację City Lens, wyświetlającą informacje o otoczeniu: sklepach, restauracjach, stacjach benzynowych, bankomatach, aptekach. Dodatkowo pokazuje, jak do nich dotrzeć i pozwala szybko polecać lokalizacje znajomym. Informacje można wyszukiwać tematycznie – jeśli np. rozglądamy się za lokalem gastronomicznym, stosowna treść ukaże się na tle właściwych budynków.