Чемпион по самой сложной настольной игре бросил спорт – потому что компьютер научился мыслить и творить

На прошлой неделе южнокорейский мастер игры в го и один из самых титулованных игроков в мире Ли Седоль объявил о завершении карьеры и сделал драматичное заявление: «После того, как искусственный интеллект начал играть в го, я понял, что не стану лучшим, даже если возглавлю рейтинг за счет безумных усилий. Теперь есть сущность, которую не одолеть».

Ли говорил о компьютере AlphaGo – разработке компании DeepMind, которую пять лет назад за 650 миллионов долларов купил Google. Машине кореец проиграл еще в 2016-м, но с тех пор искусственный интеллект стал только сильнее. А вообще победу компьютера над человеком в го считают настоящим прорывом, который потенциально может привести к масштабным изменения в мире.

Го долго не давалась компьютерам: все ходы не просчитать, нужны интуиция и абстрактное мышление

Программисты уже давно проверяют мощь искусственного интеллекта в сложных играх с лучшими из людей. Разработанный IBM компьютер Deep Blue обыграл Гарри Каспарова в шахматы еще в 1997 году. Перед матчем Каспаров думал: «Это просто машина. Машины глупые». Но после поражения признавался: «Я чувствовал – чуял, – что за столом был новый тип разума».

Чтобы победить Каспарова, Deep Blue использовал грубую вычислительную силу: после каждого хода программа просчитывала все возможные варианты развития событий и принимала решение на основе этих данных.

Но с го такой подход не работает из-за объема данных, которые нужно обрабатывать. В го игроки по очереди ставят черные и белые камни на доску 19 на 19. Задача игры – занять как можно больше территории, при этом запирая камни противника, не давая ему получить преимущество. В целом го похожа на знакомую многим по школе игру в точки – только сложнее.

Из-за размера доски уже для первого хода, который делают черные камни, возможен 361 вариант (в шахматах – всего 20). Соответственно, с каждым ходом древо потенциальных расстановок только разрастается. После первых двух ходов в шахматах существует 400 возможных развитий событий, в го – 129 960. В блоге Google, разработавшего AlphaGo, писали, что в целом количество возможных комбинаций больше, чем атомов во вселенной. Математик Джон Тромп подсчитал, что это будет 171-значное число.

Поэтому от людей в игре в го требуется не только интеллект и способность к расчетам, но и мощное абстрактное мышление, сильная интуиция – качества, которые слабо развиты у компьютеров. Один из разработчиков AlphaGo Демис Хассабис рассказывал: «Это очень интуитивная игра. Мастера го часто говорят, что сделали тот или иной ход, потому что он казался правильным». По его словам, у мастеров развивается особое эстетическое чувство, и хорошая позиция просто выглядит красиво.

Несмотря на то, что процессоры с каждым годом становятся все мощнее и быстрее, поиск ходов на древе возможностей помог искусственному интеллекту достичь в го только уровня сильного любителей. Компьютеры обыгрывали людей, но только получив фору в несколько камней.

В 2014-м Дэвид Фотланд, один из первопроходцев го для компьютеров, рассказывал, что программы сталкиваются с той же проблемой, что и люди: «Многие игроки достигают определенного любительского пика и не могут стать сильнее. Чтобы преодолеть это плато, нужно сделать какой-то ментальный скачок, и у программ возникают те же проблемы. Нужно смотреть на всю доску, а не только на локальные битвы».

Чтобы преодолеть этот интеллектуальный барьер и симулировать интуицию и эстетическое чувство профессионалов, разработчики AlphaGo подключили нейросети (сети процессоров и софта, симулирующие работу нейронов человеческого мозга) и алгоритмы глубинного обучения.

Сначала в нейросети AlphaGo скормили базу данных человеческих игр, в которую входило примерно 30 миллионов ходов. После этого он научился правильно предсказывать ход человека в 57% случаев, хотя предыдущий рекорд ИИ составлял 44%. Затем разработчики научили AlphaGo играть против самого себя – так компьютер научился еще лучше выделять максимально выгодные ходы и разрабатывать новые стратегии.

Все это помогло рационализировать процессы, на которых работал обыгравший Каспарова Deep Blue. Теперь система не просто разыгрывает все возможные комбинации, а умеет сосредотачиваться на наиболее перспективных вариантах развития событий. Кроме того, она ориентируется даже в ситуациях, с которыми еще никогда не сталкивалась. А такие из-за масштабности го оставались. За счет нового механизма AlphaGo обыграл всех ранее созданных компьютерных игроков (при этом давая им фору в четыре камня) и начал побеждать людей-профессионалов.

В октябре 2015-го AlphaGo разгромил двукратного чемпиона Европы француза Фань Хуэя. Они сыграли пять партий, никто не получал форму, и компьютер выиграл все пять. Это был первый случай, когда машина победила профессионального человека. После матча Хуэй рассказывал, что многому научился, и эти знания помогли ему прибавить и подняться в международном рейтинге.

А в 2016-м AlphaGo играл с Ли Седолем и победил 4:1. Этот матч, который только в Китае смотрели 60 миллионов человек, получился историческим по ряду причин.

Компьютер научился играть творчески, но креативность человека сбила алгоритм

Во-первых, как и Каспаров, Ли оказался не готов к тому, как хорошо играет компьютер. По его собственному признанию, первую партию он проиграл из-за этого.

Во-вторых, во второй партии компьютер продемонстрировал приобретенную креативность. В историю го этот момент вошел, как «Ход 37». Многим комментаторам он показался ошибкой – казалось, что ход машины никак не был связан со всем, что она делала раньше.

Но эксперты оценили. Фань Хуэй, работавший судьей на матче, потом рассказывал: «Это не человеческий ход. Я никогда не видел такой ход в исполнении человека. Так красиво». Обратите внимание на эстетический эпитет.

Ли после матча наоборот утверждал, что это был не компьютерный ход: «Я думал, что меня ждет очень эффективная машина, которая будет из сохраненных данных высчитывать лучший ход для каждой конкретной ситуации. Но некоторые ходы мне показались очень творческими. Они показывали красоту го, которую способны создавать только люди».

Этот ход подчеркнул проделанный искусственным интеллектом путь от простого перебора возможностей к мышлению. AlphaGo заточен на довольно консервативную игру, и если вероятность победы с небольшим преимущество составит 95%, а вероятность разгрома – 80%, компьютер выбирает первый путь.

Но Ход 37 не был консервативным. Разработчики AlphaGo позже посмотрели логи, чтобы понять, почему машина его выполнила. Оказалось, она понимала: вероятность того, что человек так поставит свой камень, составляла 1 к 10 000. Но AlphaGo принял такое решение, потому что посчитал его оптимальным для решения поставленной задачи. А еще потому, что оно поставило Ли в тупик – он на 15 минут отошел от стола и долго думал над ответом.

В целом кореец потом рассказывал, что по ходу второй партии у него никогда не было ощущения, что он ведет игру.

В-третьих, Ли в четвертой партии показал, что человеческая креативность может нарушать работу алгоритмов. К тому моменту он летел 0:3 и уже, чуть не плача, извинялся за то, что не смог побороться с компьютером. В какой-то момент он посчитал, что компьютер превосходит его в умении выполнять ходы, которые постепенно приводят к небольшому преимуществу. Поэтому на 78-м ходу после получаса размышлений он сам пошел на прием, вероятность которого, по оценкам AlphaGo, составляла 1 к 10 000.

В итоге машина не смогла к этому адаптироваться, допустила несколько ошибок, и за следующие 10 ходов вероятность ее победы, по ее собственным расчетам, упала с 70% до меньше 50% и выше этой отметки уже не поднималась. Комментаторы назвали действия Ли божественными.

Разработчики AlphaGo учли поражение и Ход 78, продолжили работу над алгоритмом и в 2017-м отправили обновленную систему играть с мастерами го онлайн. Результат? 60 побед, ноль поражений и одна ничья, которая случилась, потому что человек отключился от интернета. Своего предшественника модернизированный AlphaGo вынес в 100 партиях из 100, используя при этом куда меньше оборудования и вычислительных мощностей.

До искусственного разума еще далеко, хотя победа в го и прорыв

Не у всех победы компьютера вызывают такую же драматичную реакцию, как у Ли. Многие, наоборот, видят в них возможность для сотрудничества, которое в итоге принесет пользу человеку. Например, один из сильнейших игроков в мире Не Вэйпин, проиграв AlphaGo в интернете, сказал: «Го – не такая простая игра, как нам казалось. Людям еще многое в ней нужно исследовать. И бог го прислал эту машину, чтобы она помогла людям это сделать».

Другой китайский гроссмейстер Кэ Цзе тоже указывал на возможные прорывы: «Я полтора года изучал программы, теорию и применял все это на практике. Люди тысячелетиями развивались в игре, но теперь компьютеры говорят, что люди ничего не понимают. Думаю, вообще никто даже близко не приблизился к пониманию основ го».

Сейчас этот компьютер считается лучшим игроком в го в мире и, возможно, когда-нибудь приблизится к пониманию основ игры. Но у разработчиков  другие цели. Команда DeepMind подчеркивает, что их искусственный интеллект не заточен только под го, а в будущем сможет решать совершенно не связанные с игрой задачи.

В целом специалисты указывают, что потенциально искусственный интеллект может привести к прорывам в робототехнике, научных исследованиях (вплоть до лекарства от рака), а в повседневной жизни могут появиться, например, не допускающие ошибок финансовые советники на основе ИИ и доступные всем беспилотные машины. А еще обещают, что нейросети будут писать музыку и книги не хуже людей.

С другой стороны, обещанные прорывы пока не наступают. Люди по-прежнему сами сидят за рулем, а американские политики обвиняют Россию в информационных диверсиях – хотя Марк Цукерберг больше года назад обещал Конгрессу, что искусственный интеллект решит проблему фэйковых новостей.

Более того, та же самая DeepMind, которая за счет разработки AlphaGo стала одним из лидеров в сфере искусственного интеллекта, с каждым годом несет все большие убытки: 154 миллиона долларов в 2016-м, 341 млн – в 2017-м, 572 млн – в 2018-м. Поэтому у некоторых экспертов есть опасения, что если в ближайшее время искусственный интеллект не совершит монетизируемый прорыв, пузырь может лопнуть и в эту сферу просто перестанут вкладывать деньги.

В целом консенсус такой: искусственный интеллект пока очень далек от того, что было показано в «Терминаторе», а мир все же в разы сложнее игры в го. До создания человекоподобных роботов еще очень далеко, потому что компьютеры сейчас даже не могут вести осознанный разговор и решать многие задачи, которые без проблем даются детям.

Но карьеру Ли Седоля компьютер уже завершил. Правда, не совсем. Кореец все еще консультирует разработчиков AlphaGo, а в декабре сыграет с корейским компьютером HanDol. Но в свою победу Ли не верит: «Даже с форой в два камня мне кажется, что я проиграю. Сейчас я даже не слежу за новостями го».

Звучит трагично.

Великая Французская революция началась на (почти) теннисном корте. Там буржуазия бросила вызов королю

Шахматы – великая настолка СССР: моду задал Ленин, а играли даже в космосе и во время войны

Фото: Gettyimages.ru/Google, Kim Min-Hee-Pool, Justin Sullivan; REUTERS/Peter Morgan; farrar-tanner.co.uk

+14
Популярные комментарии
dekho
0
Спокойствие, только спокойствие. DeepMind уже пррвалился в попытке сделать следующий шаг: создание аналогичного исполина духа для StarCraft 2, AlphaStar. В тех ситуациях, когда АльфаСтар играет честно, с теми же ограничениями, что и человек, то он играет на уровне "крепкого любителя", а человеческая креативность его легко уничтожает. Ибо го - дискретная игра с трехзначным количеством ходов в партии, а игры типа старкрафта - там количество ходов может доходить до трехзначного за минуту.

Не тянет ИИ, как бы журналистам ни хотелось.
Poisk-8
0
"...двукратного чемпиона Европы француза Фань Хуэя".

Так он - мир го.
Написать комментарий
Реклама 18+