Hirdetés

Áttörést hozhat a robotok látásában egy kínai fejlesztés



|

Egy új, az emberi agy által inspirált chip négyszer gyorsabban érzékeli a mozgást, mint a mai rendszerek.

Hirdetés

Egy friss tanulmány szerint hamarosan eljuthatunk oda, hogy a robotok nemcsak látnak, hanem valóban azonnal reagálnak is arra, amit érzékelnek. A pekingi Beihang Egyetem kutatói a Nature hasábjain mutattak be egy olyan látórendszert, amely a mozgás feldolgozását a jelenlegi optikai áramlásos megoldásoknál akár négyszer gyorsabban végzi. Az áttörés különösen fontos lehet az önvezető járművek, az ipari robotok és a sebészeti eszközök jövője szempontjából.

A fejlesztés a neuromorfikus mérnöki gondolkodásból nőtt ki, amely az emberi agy működését próbálja hardveres szinten lemásolni. Ezek a chipek nem választják szét élesen a számítást és a memóriát, mint a hagyományos processzorok, hanem egyetlen egységben kezelik őket, ami gyorsabb és energiatakarékosabb működést tesz lehetővé. A területre régóta ígéretes irányként tekintenek azok, akik csökkentenék a gépi és az emberi érzékelés közötti szakadékot.

Hirdetés

A kutatócsoport vezetője, Shuo Gao egy kevésbé ismert agyi struktúrából merített ihletet, nevezetesen az oldalsó térdestestből, vagyis az LGN-ből. Ez a retina és a látókéreg között elhelyezkedő központ nemcsak továbbítja az információt, hanem szűri is azt, előnyben részesítve az időben és térben gyorsan változó ingereket. Ennek köszönhető, hogy az emberi szem könnyen fókuszál egy hirtelen irányt módosító biciklisre vagy egy éppen váltó közlekedési lámpára. Gaoék ezt a szelektív figyelmi mechanizmust ültették át szilíciumba.

A hagyományos robotlátás jellemzően statikus képkockákból indul ki, majd az egymást követő frame-ek pixeleinek fényességváltozásából számolja ki a mozgást. Megbízható, de lassú módszer, egyetlen képkocka feldolgozása akár fél másodpercnél is tovább tarthat. Ez több méternyi "vakon repülést" jelenthet egy autonóm jármű esetében az autópályák tempója esetén. Az új neuromorfikus modul ezzel szemben közvetlenül az időbeli fényintenzitás-változásokat figyeli, és már a feldolgozás elején kiszűri azokat a területeket, ahol valóban történik valami, oda irányítva a számítási kapacitást.

A tesztek során, amelyekben szimulált vezetési helyzetek és robotkaros feladatok is szerepeltek, a rendszer nagyjából 75 százalékkal csökkentette a feldolgozási késleltetést, miközben összetett mozgásoknál megduplázta a követés pontosságát. Bár a végső képfeldolgozáshoz továbbra is szükség van hagyományos optikai áramlásos algoritmusokra, és zsúfolt vizuális környezetben még nehézségekbe ütközik, az előrelépés így is jelentős.

A kutatók szerint a technológia bővítheti azoknak a helyzeteknek a körét, amelyekben a robotok biztonságosan működhetnek, a forgalmas utcáktól egészen az otthonokig. Egy lakókörnyezetben, ahol finom vizuális jelekre, gesztusokra vagy arckifejezésekre kell reagálni, a gyorsabb látás természetesebbé teheti az ember és gép közötti interakciót. A következő nagy kihívás az lesz, hogy a neuromorfikus hardvert nagyobb léptékben is lehessen gyártani és beilleszteni a meglévő AI-rendszerekbe anélkül, hogy elveszne a sebességelőny. Ha ez sikerül, a biológia által inspirált látás nemcsak azt határozhatja meg, mit érzékelnek a robotok, hanem azt is, milyen gyorsan értik meg a folyamatosan mozgó világot.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.