A A+ A++

Czy roboty mogą czuć dotyk? W pewnym sensie tak! Singapurscy naukowcy pochwalili się przełomowymi odkryciami w zakresie percepcji robotycznej – dzięki zastosowaniu procesorów neuromorficznych Intela możliwe będzie wprowadzenie zmysłu dotyku do robotyki.

Prace nad zmysłem dotyku poprowadzili naukowcy z National University of Singapore (NUS), który jest częścią Intel Neuromorphic Research Community (INRC) – to ekosystemem grup akademickich, laboratoriów rządowych, instytucji badawczych i firm na całym świecie, które współpracują z firmą Intel w celu dalszego rozwoju obliczeń neuromorficznych i opracowywania innowacyjnych aplikacji bazujących na sztucznej inteligencji (SI).

Procesor neuromorficzny Intel Loihi pozwala robotom czuć dotyk

Zespół przeprowadził badania nad potencjałem technologii neuromorficznej (czyli działającej podobnie do ludzkiego mózgu) do przetwarzania danych sensorycznych ze sztucznej skóry – w tym celu wykorzystano neuromorficzny układ Intel Loihi. Wyniki doświadczeń zaprezentowano na targach Robotics: Science and Systems.

W pierwszym doświadczeniu naukowcy wykorzystali zrobotyzowaną rękę wyposażoną w sztuczną skórę do odczytywania alfabetu Braille’a – proces pozwolił przekształcić dane zbierane przez mikro wypustki w znaczenie semantyczne. Loihi osiągnął ponad 92% dokładność w klasyfikowaniu liter alfabetu Braille’a, jednocześnie wykorzystując 20 razy mniejszą moc niż standardowy procesor oparty o architekturę Von Neumanna.

Naukowcy z National University of Singapore

W drugim doświadczeniu zespół NUS postanowił ulepszyć możliwości percepcji robotów poprzez połączenie danych wizyjnych i dotykowych do sieci neuronowej. W tym celu zlecili robotowi sklasyfikowanie kilku nieprzezroczystych pojemników zawierających różne ilości płynu poprzez odbieranie sensorycznych bodźców ze sztucznej skóry i wbudowanej kamery. Badacze wykorzystali te same czujniki dotykowe i wizyjne, aby sprawdzić zdolność percepcji systemu do rozpoznawania poślizgu obrotowego, co jest ważne dla stabilnego chwytania.

Dane sensoryczne zostały wysłane zarówno do procesora graficznego, jak i neuromorficznego układu badawczego Intel Loihi w celu porównania ich możliwości przetwarzania. Wyniki pokazują, że połączenie zmysłu widzenia opartego na zdarzeniach i dotyku za pomocą impulsowej sieci neuronowej umożliwiło uzyskanie o 10% większej dokładności w klasyfikacji obiektów w porównaniu z systemem wykorzystującym tylko widzenie. Co więcej, Loihi przetwarza dane sensoryczne 21% szybciej niż najlepszy procesor graficzny, zużywając przy tym 45x mniej energii.

Robot NUS

“Badania przeprowadzone przez National Universit of Singapore to zdecydowania kolejny krok w przyszłość robotyki, w której informacje są zarówno odbierane, jak i przetwarzane w sposób inicjowany różnego typu zdarzeniami. Badania te przyczyniają się do uzyskania coraz ciekawszych wyników pokazujących, że obliczenia neuromorficzne mogą przynieść znaczne korzyści w zakresie minimalizowania opóźnień i zużycia energii, gdy cały system zostanie przeprojektowany w oparciu o czujniki, formaty danych, algorytmy i architekturę sprzętową opartą na zdarzeniach”. – Mike Davies, dyrektor Laboratorium Neuromorficznych Obliczeń Intela.

Dlaczego wprowadzenie czucia do robotów jest ważne?

Ludzie nie mają problemu z rozpoznawaniem dotyku – nasz zmysł jest wystarczająco czuły, aby odczuć różnicę pomiędzy bardzo podobnymi powierzchniami. Inaczej to wygląda w przypadku robotów, bo większość konstrukcji pracuje wyłącznie przetwarzając obraz. Odkrycie naukowców z NUS pozwoli zmienić ten stan rzeczy – sztuczna skóra będzie w stanie wykryć dotyk ponad 1000 razy szybciej niż ludzki układ nerwowy i określić kształt, teksturę i twardość przedmiotów 10 razy szybciej niż mrugnięcie oka.

Wprowadzenie do robotów zmysłu dotyku podobnego do ludzkiego znacząco poprawiłoby ich funkcjonalność. Ramiona robotów produkcyjnych mogłyby się dostosować do zmian w materiałach produkowanych w fabryce, wykorzystując zmysł dotyku do identyfikacji i chwytania nieznanych przedmiotów z odpowiednią siłą nacisku, aby zapobiec jego wyślizgnięciu lub uszkodzeniu. Taka funkcja mogłaby przybliżyć nas także do automatyzacji zadań chirurgicznych, nadając robotom chirurgicznym poczucie dotyku, którego obecnie im brakuje.

Warto jednak zauważyć, że wprowadzenie nowej funkcji wymaga nie tylko stworzenia sztucznej skóry, ale też odpowiedniego układu, który potrafi wyciągać dokładne wnioski na podstawie danych sensorycznych zbieranych w czasie rzeczywistym. Jednocześnie musi on działać na poziomie mocy na tyle wydajnym, że można go umieścić bezpośrednio wewnątrz robota.

Procesor Intel Loihi
System obliczeniowy wykorzystujący kilkaset neuromorficznych układów Intel Loihi

“Oprócz samej sztucznej skóry potrzebny jest również sztuczny mózg, który będzie w stanie w tym samym momencie przetwarzać dane, by robot mógł odpowiednio reagować na otaczające go środowisko, ale również uczyć się i zapamiętywać ważne dla niego zdarzenia. Nasza wyjątkowa demonstracja systemu sztucznej skóry, której głównym fundamentem jest sztuczna inteligencja i neuromorficznymi chipami, takimi jak Intel Loihi, stanowi duży krok w kierunku wydajności energetycznej i ich skalowalności”.

Źródło: Intel, NUS

Zainteresowany ciekawostkami? Zobacz więcej newsów:

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułDorota Szelągowska w ogniu krytyki za reklamę kosmetyków. “Robienie ludzi w konia nie jest fajne”
Następny artykułUSA: Przez pomyłkę sprzedawcy został… milionerem