Wiele osób musi mierzyć się z jakąś formą niepełnosprawności, a jednymi z dość często występujących schorzeń, które bardzo utrudniają funkcjonowanie, są dystrofie mięśniowe. Osoby dotknięte takimi chorobami genetycznymi muszą się zmagać z zanikiem, a co za tym idzie ze znaczącym osłabieniem siły mięśni z upływem czasu. Google opracowało jednak oprogramowanie, które pomoże takim osobom obsługiwać komputery i smartfony przy pomocy mimiki twarzy.
Project Gameface to jedno z ciekawszych rozwiązań od Google, które ma pomóc osobom niepełnosprawnym obsługiwać komputery i urządzenia mobilne przy pomocy ruchów głowy i mimiki twarzy. Właśnie stało się ono dostępne na systemie Android.
Project Astra – Google przedstawia asystenta AI przyszłości. Na dodatek zapomniane Google Glass mają szansę powrócić
Cały projekt został przedstawiony na zeszłorocznej (2023) konferencji Google I/O i początkowo był dostępny tylko dla komputerów z systemem Windows. Stworzono go wraz z niepełnosprawnym streamerem (Lance Carr), który dotknięty jest dystrofią mięśniową. Dzięki opracowanemu oprogramowaniu może on nie tylko obsługiwać komputer, ale także grać w gry wideo. Opiera się ono bowiem na analizowaniu twarzy użytkownika, gdzie wykrywane są zarówno ruchy głową, jak i określone gesty (otwarcie ust, podniesienie jednej brwi itd.). Dzięki temu można obsługiwać dane urządzenie zupełnie bez użycia rąk, co jest znaczącym ułatwieniem dla osób, które na co dzień muszą się zmagać z omawianymi schorzeniami.
Niemal namacalne rozmowy wideo dzięki Google. Nadchodzi Project Starline, przy którym pracuje także HP
Google na aktualnej konferencji zaprezentowało wersję na Androida, która jest już dostępna dla wszystkich zainteresowanych, jednak w postaci projektu dla Android Studio. Musimy więc najpierw ściągnąć wspomniany program i “zbudować” aplikację, aby następnie przenieść ją na naszego smartfona lub tablet z Androidem. Ma to oczywiście pomóc w implementacji funkcjonalności do innych aplikacji, jednak szkoda, że GameFace nie pojawiła się jednocześnie w Sklepie Google Play. Osobiście przetestowałem to rozwiązanie i muszę przyznać, że działa ono naprawdę dobrze. Domyślnie ruchem głowy przesuwamy wskaźnik na ekranie, a otwarcie ust przekłada się na gest kliknięcia danego miejsca. Możemy określić szybkość, z jaką ma się poruszać wirtualny kursor po ekranie (i to w każdym kierunku), a także przypisać konkretny “gest” twarzy do wykonania określonej akcji. Trzeba jednak skonfigurować czułość wykrywania naszej mimiki twarzy, ponieważ domyślne ustawienia mogą wykryć nawet drobne poruszenie mięśni, w wyniku czego przypisana do gestu akcja zostanie uruchomiona. Bardzo dobrze, że obecnie rozwija się takie oprogramowanie, ponieważ daje ono możliwość lepszego życia dla niepełnosprawnych osób. Inną przydatną aplikacją dla niedowidzących i niewidomych jest z kolei Seeing AI.
Źródło: Google
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS