Первоначально Сильвер и его команда научили AlphaGo играть в древнюю игру, используя глубокую нейронную сеть - сеть аппаратного и программного обеспечения, которая имитирует сеть нейронов в человеческом мозгу. Эта технология уже лежит в основе онлайн-сервисов в таких местах, как Google, Facebook и Twitter, помогая идентифицировать лица на фотографиях, распознавать команды, произносимые в смартфоны, управлять поисковыми системами и т. Д. Если вы скармливаете нейронной сети достаточно фотографий омара, он научится распознавать омара. Если вы будете кормить его достаточным количеством человеческих диалогов, он сможет научиться вести приличную беседу . А если дать ему 30 миллионов ходов от опытных игроков, он сможет научиться играть в го.

Но затем команда пошла дальше. Используя вторую технологию искусственного интеллекта, называемую обучением с подкреплением, они организовали бесчисленные матчи, в которых (немного) разные версии AlphaGo играли друг с другом. И пока AlphaGo играла сама, система отслеживала, какие ходы приносят наибольшее количество территории на доске. «AlphaGo научилась открывать для себя новые стратегии, играя в миллионы игр между своими нейронными сетями против самих себя, и постепенно совершенствуясь», - сказал Сильвер, когда Google представил AlphaGo в начале этого года.