Игроки в го очень быстро учатся у ИИ и еще смогут составить ему конкуренцию
Все началось на Всемирной выставке в Нью-Йорке в 1940 году, когда Эдвард Кондон, физик-ядерщик, продемонстрировал электромеханическую машину-игрока. Она весила целую тонну и успешно играла в простую китайскую игру Ним. Эта машина, одна из первых зарегистрированных компьютеризированных игр, легко расправилась с большинством соперников-людей. Вероятно, это был первый случай, когда люди столкнулись с тем, что неодушевленный объект может быть просто умнее, чем они.
В 1997 году компьютер IBM Deep Blue (размером с небольшую комнату) победил чемпиона мира по шахматам Гэри Каспарова. Еще десять лет спустя участники гроссмейстерского турнира потерпели поражение от шахматной программы с искусственным интеллектом, работавшей на персональном компьютере.
Компьютерные версии го — обманчиво простой игры, но на много порядков более сложной, чем шахматы — в течение многих лет могли играть в лучшем случае на уровне людей-любителей. Но AlphaGo от DeepMind использовала нейронные сети, чтобы создать программу, которая одержала победу над ведущими мастерами игры го. Но кажется, соревнование человека с ИИ еще далеко не закончено.
Ответ на вызов
Минкью Шин, доцент кафедры маркетинга Городского университета Гонконга, говорит, что AlphaGo и ее аналоги побудили помогли игрокам-людям стать совершеннее.
Шин и его коллеги провели масштабный анализ, просмотрев базу данных из 5,8 миллионов ходов игроков в го, сделанных в течение 71 года, начиная с 1950 года (когда правила го были стандартизированы).
«Наши результаты показывают, что игра ИИ побудила людей отказаться от многих традиционных стратегий и начать исследование новых стратегий, и это сделало игру людей гораздо более сильной», — говорит Шин.
Ученые разработали индекс для ранжирования качества решений на каждом этапе игры. Используя искусственную нейросеть KataGo, они сравнили оптимальные ходы с почти 60 миллиардами теоретических возможных игровых паттернов. Это дало оценку, названную индексом качества решений (DQI).
Изучая DQI за несколько десятилетий, Шин и его команда обнаружили, что в течение первых нескольких десятилетий игры в го индекс почти не менялся. Существенное улучшение DQI было обнаружено сразу после 2016 года, когда AlphaGo сыграл свои первые партии с человеком.
Дэвид Сильвер, ученый из DeepMind, прокомментировал эти выводы: «Удивительно видеть, как быстро игроки-люди адаптировались к новому вызову. Эти результаты показывают, что люди могут улучшать свою игру, опираясь на ИИ и могут увеличить свой потенциал».
Люди (по крайней мере, игроки в го) понимают, что делает ИИ и учатся у него.
Не только ИИ учится у человека, но и человек учится у ИИ