Скачать книгу

мае 2017 года DeepMind убедительно доказала, что победа над Седолем в 2016-м не была одержана AlphaGo случайно. В матче на 1,8 миллиона долларов[21] улучшенная версия программы победила китайскую легенду го Кэ Цзе, который впоследствии был назван лучшим игроком в мире.

      Однако, несмотря на то что эти две победы значат очень много для развития ИИ, не стоит переоценивать их значимость. AlphaGo была специально разработана для игры в го. Потребовалось бы очень много усилий, чтобы приспособить ее для других игр, таких как, например, покер[22]. Трудно представить, что те же техники, которые работают в AlphaZero (новейшая версия AlphaGo работает исключительно на основе знания правил игры), будут работать и в азартных играх. Разумеется, AlphaZero не способна водить машину, написать роман или перевести юридический документ.

      Другое заблуждение может заключаться в том, что результат, которого достигла AlphaGo, появился ниоткуда, а потому указывает на некий «экспоненциальный» рост в сфере ИИ. На самом деле это не так. Это, несомненно, важное достижение DeepMind, привлекшее к себе столько внимания, заслуживает всяческих похвал. Однако, несмотря на то что AlphaGo предлагает некий новый способ соединения компонентов, сами компоненты остаются практически неизменными[23].

      До появления AlphaGo самой успешной компьютерной программой была CrazyStone, написанная Реми Куломом[24]. В 2014 году Кулом сказал в интервью, что первая победа программы над профессиональным игроком состоится через десять лет. Однако AlphaGo потребовалось немногим больше года, чтобы победить Фэна Хуи, трехкратного чемпиона Европы, и еще один, чтобы победить Ли Седоля.

      Так или иначе, DeepMind приложили больше всех усилий к решению этой задачи. Раньше программы для игры в го писались одним человеком; над AlphaGo работало около пятидесяти человек. Это заняло меньше одной десятой того времени, которое этот процесс должен был занять по мнению Кулома, но потребовало количество людей, превышающее предполагаемое более чем в десять раз.

      DeepMind также имели доступ к обширным серверным фермам Google, которые позволили AlphaGo играть миллиарды раз против себя самой. Даже если бы человек всю жизнь не занимался ничем другим, кроме игры в го, он бы все равно не смог даже приблизиться к такому количеству партий. Из этого следует, что AlphaGo не так уж быстро учится. Люди, в отличие от подобных программ, могут научиться что-то делать, увидев это лишь единожды. Мы всё еще пытаемся создать ИИ, который мог бы учиться на основе такого маленького количества данных. Так что, несмотря на то что победы AlphaGo стали важным символическим моментом для ИИ, они не были таким прорывным достижением, каким его представляет для вас PR-отдел Google[25].

      Не только игры

      Игры представляют для ИИ простую задачу. Обычно в них есть четкие правила, а победителя легко определить. Такие игры, как шахматы или го, обычно требуют от игрока незаурядных умственных способностей, а потому неудивительно, что для испытаний ИИ они подходят идеально.

      Однако машины превзошли человека не только в играх.

Скачать книгу


<p>21</p>

Все суммы в долларах (за исключением тех мест, где это специально оговорено) приводятся в валюте США.

<p>22</p>

В октябре 2017 года DeepMind представили AlphaGo Zero. Это улучшенная версия AlphaGo, которую не учили играть в го вручную и не показывали игры лучших спортсменов. Ей были даны только правила игры. То есть ее познания не основывались на тысячах лет человеческого опыта в этой игре, а складывались из того, что она освоила самостоятельно. После трех дней практики программа уже играла на сверхчеловеческом уровне. Как и многие мои коллеги, я был впечатлен. Всего три дня требуется компьютеру, чтобы оказаться там, куда человечество шло тысячелетиями. Еще больше я был впечатлен, когда в декабре 2017-го компания представила AlphaZero, еще более универсальную версию, которая также смогла научиться играть в шахматы и сёги (японские шахматы) на сверхчеловеческом уровне только на основе знания правил. Однако есть определенные сомнения (по моему мнению, существенные) в том, что программа может научиться играть во что-то совсем другое. Шахматы, го и сёги – настольные игры для двух человек. Покер же, например, подразумевает не только большее число игроков, но и много новых факторов, таких как неопределенность и человеческая психология. Для того чтобы выиграть в покер, необходимо иметь дело с неполной информацией о картах соперников, тогда как в го все сведения о том, что происходит в игре, доступны обоим участникам. Кроме того, в покере приходится сталкиваться с психологическими трюками соперника, например блефом. Ни AlphaGo, ни AlphaZero не приспособлены для решения подобных задач. Чтобы доказать универсальность программы, DeepMind должны будут продемонстрировать ей способность побеждать в совершенно разных играх, таких как шахматы, покер или StarCraft. И даже тогда алгоритм AlphaZero будет ограничен только играми.

<p>23</p>

AlphaGo не была первой искусственной нейросетью, которая научилась играть во что-то на нашем уровне. TD-Gammon – программа для игры в нарды – была разработана в 1992 году в научно-исследовательском центре Томаса Дж. Уотсона в IBM. Она показывала уровень чуть ниже, чем у лучших игроков в нарды того времени. Программа использовала стратегии, которые людям и не приходили в голову, и помогла взглянуть на нарды с новой стороны. Так же, как и AlphaGo Zero, она знала только правила игры и научилась всему благодаря постоянной практике.

<p>24</p>

Реми Кулом – талантливый французский программист.

<p>25</p>

Реклама, которую победа AlphaGo сделала для Google на китайском рынке, вероятно, окупила все многомиллионные затраты DeepMind на разработку программы. С другой стороны, это может выйти Google боком, так как все это подвигло китайцев на создание собственного ИИ. Если один из китайских гигантов вроде Baidu или Tencent выиграет гонку в сфере искусственного интеллекта, Ларри Пейдж и Сергей Брин могут проклясть тот день, когда они разбудили спящего дракона.