Автономні транспортні засоби дуже легко можуть “заблукати”, якщо вони потрапляють в зону невпевненого прийому або відсутності сигналів супутникової навігаційної системи GPS. Але новий алгоритм, розроблений фахівцями Каліфорнійського технологічного інституту, дозволить автономних систем визначитися зі своїм розташування, просто “озирнувшись навколо” за допомогою однієї або декількох камер. І, вперше за всю історію, робота такого алгоритму є практично незалежною від сезонних змін і різних факторів навколишнього середовища.
Процес відносної візуальної орієнтації (visual terrain-relative navigation, VTRN) був розроблений ще в 1960-х роках. Він працює шляхом порівняння зображень навколишньої місцевості, одержуваних з камер, з високоякісними супутниковими знімками, які перебувають в спеціальній базі даних. Такий підхід працює, поки що-небудь кардинально не змінює навколишній ландшафт, цим може бути сніговий покрив або опале з дерев листя. На жаль, в базу даних VTRN неможливо внести зображення однієї і тієї ж місцевості при всіх можливих умовах, тому такі візуальні системи часто не можуть знайти збіги і видають недостовірні результати.
Дослідники з Каліфорнійського технологічного інституту та Лабораторії НАСА з вивчення реактивного руху (NASA Jet Propulsion Laboratory, JPL) вирішили задіяти для завдання візуальної орієнтації спеціально навчену систему штучного інтелекту. У цій системі був реалізований метод “самоконтрольованого навчання”, який дозволяє системі навчатися повністю самостійно, без участі в цій справі людей і підготовлених людьми коментованих наборів даних. Аналізуючи зображення, така система штучного інтелекту знаходить на знімках такі деталі і особливості, які, з великим відсотком ймовірності, були б пропущені і не прийняті до уваги людьми.
Система штучного інтелекту була впроваджена в один з варіантів програмної реалізації технології візуальної орієнтації. І в найпершому ж тесті системі було поставлено завдання визначення місцеположення в літній період на підставі даних і знімків, зроблених в зимовий період. Звичайний підхід забезпечує більш менш достовірні результати в максимум 50 відсотках випадків. Але коли до цієї справи був підключений штучний інтелект, кількість достовірних результатів збільшилася до 92 відсотків, а решта 8 відсотків були ідентифіковані як проблематичні, тобто виходять за рамки необхідної точності.
Участь в цій роботі фахівців лабораторії JPL пояснюється тим, що дана технологія може бути успішно використана в космічних місіях. Наприклад, в системі управління спусковий апарат, який в 2020 році доставив марсоход Perseverance на поверхню Червоної Планети, також використовувалися технології візуальної орієнтації. І, завдяки цій системі, марсохід було успішно спущено на поверхню в районі кратера Jezero в місці, яке раніше було визнано занадто небезпечним для такої процедури. Крім цього, учасники дослідницької групи вже пропрацювали безліч знімків полярних регіонів Марса, де спостерігаються досить сильні сезонні зміни, і отримані дані будуть використовуватися пізніше під час місій, метою яких стане пошук запасів води.
Зараз каліфорнійські дослідники займаються модернізацією створеної ними системи, після чого вона зможе не залежати або залежати в набагато меншому ступені від моментальних погодних змін, включаючи туман, дощ і сніг. Якщо це буде виконано успішно, то самоврядні автомобілі-роботи знайдуть можливість дізнаватися своє місце перебування в будь-який час року, в будь-якому місці і в будь-яких умовах.
Leave a Reply
Щоб відправити коментар вам необхідно авторизуватись.