Робот Google DeepMind уже обыграет человека в настольный теннис
«Робот должен быть хорош в навыках низкого уровня, таких как возврат мяча, а также в навыках высокого уровня, таких как стратегия и долгосрочное планирование для достижения цели», — объяснила Google DeepMind.
Чтобы разработать своего высокоразвитого робота, инженеры сначала составили большой набор данных «начальных состояний мяча для настольного тенниса», включая информацию о позиционировании, вращении и скорости. Затем они поручили своей системе ИИ попрактиковаться с использованием этого набора данных в физически точных виртуальных симуляциях, чтобы изучить такие навыки, как возврат подачи, удары слева и топ-спины справа. После этого они соединили ИИ с роботизированной рукой, способной выполнять сложные, быстрые движения, и обучили ее играть с человеком. Эти данные, включая визуальную информацию о положении мяча, снятую камерами на борту робота, затем снова анализировались в симуляциях, чтобы создать «непрерывный цикл обратной связи» обучения.
Турнир между роботом и людьми
Google DeepMind привлек 29 игроков-людей, ранжированных по четырем уровням мастерства — начинающий, средний, продвинутый и «продвинутый+». Участникам было предложено сыграть против роботизированной руки на гусеничном ходу. Машина выиграла в общей сложности 13 матчей, или 45% игр, продемонстрировав «уверенный любительский уровень», по словам исследователей.
Нет, пока робот не может выиграть в настольный теннис у сильнейших игроков. Он победил всех игроков начального уровня, выиграл только 55% матчей против соперников среднего и продвинутого уровня и не смог выиграть ни одного матча против двух людей уровня «продвинутый+». Участники исследования описали общий опыт как «забавный» и «увлекательный», независимо от того, выиграли они свою игру или нет. Они также выразили огромный интерес к повторным матчам с роботом.