Дослідники навчили віртуальних персонажів реалістично імітувати рухи людей, тварин і роботів. Алгоритм планують використовувати не тільки для створення відеоігор з більш реалістичними персонажами, але і для навчання людиноподібних або звіроподібних роботів.
Препринт дослідження опубліковано на arXiv.org .
Щоб показати віртуальним персонажам мету, до якої потрібно прагнути, вчені з Університету Британської Колумбії і Каліфорнійського університету в Берклі використовували відеоінструкції, створені за допомогою технології захоплення руху. Винагорода залежала від того, наскільки положення «учня» в просторі збігалося з Положенням «інструктора» в кожному елементі виконуваного руху.
В середньому на вивчення кожного руху за допомогою алгоритму DeepMimic потрібно місяць. За цей період персонажі встигають зробити мільйони спроб повторення трюку, при цьому алгоритм швидко припиняє явно невдалі спроби, змушуючи їх відпрацьовувати найбільш близькі до оригіналу. Зараз персонажі освоїли близько 25 рухів, серед них є як прості — наприклад, метання ядра, так і складні акробатичні трюки, такі як сальто назад.
Крім рухів людей, персонажі навчилися імітувати рухи Лева, робота Atlas, а також тиранозавтра і дракона — інструкції з їх рухами були створені за допомогою комп’ютерного моделювання.
За словами розробників, цей алгоритм можна використовувати не тільки для створення відеоігор з більш реалістичними персонажами, але і для навчання людиноподібних або звіроподібних роботів.
Раніше програмісти з DeepMind за допомогою навчання з підкріпленням навчили агентів зі штучним інтелектом долати перешкоди у віртуальному світі. Також минулого року дослідники з Канади та Сінгапуру на конференції з комп’ютерної анімації Siggraph 2017 представили алгоритм глибокого навчання з підкріпленням, що дозволяє двоногим віртуальним роботам методом проб і помилок навчитися ходити, бігати і вести м’яч.
&Nbsp;