自学围棋的AlphaGo Zero,你也可以造一个
2022-12-30 20:23:24来源:网络转载作者:匿名 阅读量:59 字体:大 中 小
01、遥想当年,AlphaGo的Master版本,在完胜柯洁九段之后不久,就被后辈AlphaGo Zero (简称狗零) 击溃了。

从一只完全不懂围棋的AI,到打败Master,狗零只用了21天。
而且,它不需要用人类知识来喂养,成为顶尖棋手全靠自学。
如果能培育这样一只AI,即便自己不会下棋,也可以很骄傲吧。
于是,来自巴黎的少年Dylan Djian (简称小笛) ,就照着狗零的论文去实现了一下。
他给自己的AI棋手起名SuperGo,也提供了代码 (传送门见文底) 。
除此之外,还有教程——
一个身子两个头
智能体分成三个部分:
一是特征提取器 (Feature Extractor) ,二是策略网络 (Policy Network) ,三是价值网络(Value Network) 。
于是,狗零也被亲切地称为“双头怪”。特征提取器是身子,其他两个网络是脑子。
特征提取器
特征提取模型,是个残差网络 (ResNet) ,就是给普通CNN加上了跳层连接 (Skip Connection) , 让梯度的传播更加通畅。
跳跃的样子,写成代码就是:
1class BasicBlock(nn.Module):
2 """
3 Basic residual block with 2 convolutions and a skip connection
4 before the last ReLU activation.
5 """
6、7 def __init__(self, inplanes, planes, stride=1, downsample=None):
8 super(BasicBlock, self).__init__()
9、10 self.conv1 = nn.Conv2d(inplanes, planes, kernel_size=3,
11 stride=stride, padding=1, bias=False)
12 self.bn1 = nn.BatchNorm2d(planes)
13、14 self.conv2 = nn.Conv2d(planes, planes, kernel_size=3,
15 stride=stride, padding=1, bias=False)
16 self.bn2 = nn.BatchNorm2d(planes)
17、18
19 def forward(self, x):
20 residual = x
21、22 out = self.conv1(x)
23 out = F.relu(self.bn1(out))
24、25 out = self.conv2(out)
26 out = self.bn2(out)
27、28 out += residual
29 out = F.relu(out)
30、31 return out
然后,把它加到特征提取模型里面去:
1class Extractor(nn.Module):
2 def __init__(self, inplanes, outplanes):
3 super(Extractor, self).__init__()
4 self.conv1 = nn.Conv2d(inplanes, outplanes, stride=1,
5 kernel_size=3, padding=1, bias=False)
6 self.bn1 = nn.BatchNorm2d(outplanes)
7、8 for block in range(BLOCKS):
9 setattr(self, "res{}".format(block),
10 BasicBlock(outplanes, outplanes))
11、12
13 def forward(self, x):
14 x = F.relu(self.bn1(self.conv1(x)))
15 for block in range(BLOCKS - 1):
16 x = getattr(self, "res{}".format(block))(x)
17、18 feature_maps = getattr(self, "res{}".format(BLOCKS - 1))(x)
19 return feature_maps
策略网络
策略网络就是普通的CNN了,里面有个批量标准化 (Batch Normalization) ,还有一个全连接层,输出概率分布。
1class PolicyNet(nn.Module):
2 def __init__(self, inplanes, outplanes):
3 super(PolicyNet, self).__init__()
4 self.outplanes = outplanes
5 self.conv = nn.Conv2d(inplanes, 1, kernel_size=1)
6 self.bn = nn.BatchNorm2d(1)
7 self.logsoftmax = nn.LogSoftmax(dim=1)
8 self.fc = nn.Linear(outplanes - 1, outplanes)
9、10
11 def forward(self, x):
12 x = F.relu(self.bn(self.conv(x)))
13 x = x.view(-1, self.outplanes - 1)
14 x = self.fc(x)
15 probas = self.logsoftmax(x).exp()
16、17 return probas
价值网络
这个网络稍微复杂一点。除了标配之外,还要再多加一个全连接层。最后,用双曲正切 (Hyperbolic Tangent) 算出 (-1,1) 之间的数值,来表示当前状态下的赢面多大。
代码长这样——
1class ValueNet(nn.Module):
2 def __init__(self, inplanes, outplanes):
3 super(ValueNet, self).__init__()
4 self.outplanes = outplanes
5 self.conv = nn.Conv2d(inplanes, 1, kernel_size=1)
6 self.bn = nn.BatchNorm2d(1)
7 self.fc1 = nn.Linear(outplanes - 1, 256)
8 self.fc2 = nn.Linear(256, 1)
9、10
11 def forward(self, x):
12 x = F.relu(self.bn(self.conv(x)))
13 x = x.view(-1, self.outplanes - 1)
14 x = F.relu(self.fc1(x))
15 winning = F.tanh(self.fc2(x))
16 return winning
未雨绸缪的树
狗零,还有一个很重要的组成部分,就是蒙特卡洛树搜索 (MCTS) 。
它可以让AI棋手提前找出,胜率最高的落子点。
在模拟器里,模拟对方的下一手,以及再下一手,给出应对之策,所以提前的远不止是一步。
节点 (Node)
树上的每一个节点,都代表一种不同的局势,有不同的统计数据:
每个节点被经过的次数n,总动作值w,经过这一点的先验概率p,平均动作值q (q=w/n) ,还有从别处来到这个节点走的那一步,以及从这个节点出发、所有可能的下一步。
1class Node:
2 def __init__(self, parent=None, proba=None, move=None):
3 self.p = proba
4 self.n = 0
5 self.w = 0
6 self.q = 0
7 self.children = []
8 self.parent = parent
9 self.move = move
部署 (Rollout)
第一步是PUCT (多项式上置信树) 算法,选择能让PUCT函数 (下图) 的某个变体 (Variant) 最大化,的走法。
写成代码的话——
1def select(nodes, c_puct=C_PUCT):
2 " Optimized version of the selection based of the PUCT formula "
3、4 total_count = 0
5 for i in range(nodes.shape[0]):
6 total_count += nodes[i][1]
7、8 action_scores = np.zeros(nodes.shape[0])
9 for i in range(nodes.shape[0]):
10 action_scores[i] = nodes[i][0] + c_puct * nodes[i][2] *
11 (np.sqrt(total_count) / (1 + nodes[i][1]))
12、13 equals = np.where(action_scores == np.max(action_scores))[0]
14 if equals.shape[0] > 0:
15 return np.random.choice(equals)
16 return equals[0]
结束 (Ending)
选择在不停地进行,直至到达一个叶节点 (Leaf Node) ,而这个节点还没有往下生枝。
1def is_leaf(self):
2 """ Check whether a node is a leaf or not """
3、4 return len(self.children) == 0
到了叶节点,那里的一个随机状态就会被评估,得出所有“下一步”的概率。
所有被禁的落子点,概率会变成零,然后重新把总概率归为1。
然后,这个叶节点就会生出枝节 (都是可以落子的位置,概率不为零的那些) 。代码如下——
1def expand(self, probas):
2 self.children = [Node(parent=self, move=idx, proba=probas[idx])
3 for idx in range(probas.shape[0]) if probas[idx] > 0]
更新一下
枝节生好之后,这个叶节点和它的妈妈们,身上的统计数据都会更新,用的是下面这两串代码。
1def update(self, v):
2 """ Update the node statistics after a rollout """
3、4 self.w = self.w + v
5 self.q = self.w / self.n if self.n > 0 else 0
1while current_node.parent:
2 current_node.update(v)
3 current_node = current_node.parent
选择落子点
模拟器搭好了,每个可能的“下一步”,都有了自己的统计数据。
按照这些数据,算法会选择其中一步,真要落子的地方。
选择有两种,一就是选择被模拟的次数最多的点。试用于测试和实战。
另外一种,随机 (Stochastically) 选择,把节点被经过的次数转换成概率分布,用的是以下代码——
1 total = np.sum(action_scores)
2 probas = action_scores / total
3 move = np.random.choice(action_scores.shape[0], p=probas)
后者适用于训练,让AlphaGo探索更多可能的选择。
三位一体的修炼
狗零的修炼分为三个过程,是异步的。
一是自对弈 (Self-Play) ,用来生成数据。
1def self_play():
2 while True:
3 new_player, checkpoint = load_player()
4 if new_player:
5 player = new_player
6、7 ## Create the self-play match queue of processes
8 results = create_matches(player, cores=PARALLEL_SELF_PLAY,
9 match_number=SELF_PLAY_MATCH)
10 for _ in range(SELF_PLAY_MATCH):
11 result = results.get()
12 db.insert({
13 "game": result,
14 "id": game_id
15 })
16 game_id += 1
二是训练 (Training) ,拿新鲜生成的数据,来改进当前的神经网络。
1def train():
2 criterion = AlphaLoss()
3 dataset = SelfPlayDataset()
4 player, checkpoint = load_player(current_time, loaded_version)
5 optimizer = create_optimizer(player, lr,
6 param=checkpoint['optimizer'])
7 best_player = deepcopy(player)
8 dataloader = DataLoader(dataset, collate_fn=collate_fn,
9 batch_size=BATCH_SIZE, shuffle=True)
10、11 while True:
12 for batch_idx, (state, move, winner) in enumerate(dataloader):
13、14 ## Evaluate a copy of the current network
15 if total_ite % TRAIN_STEPS == 0:
16 pending_player = deepcopy(player)
17 result = evaluate(pending_player, best_player)
18、19 if result:
20 best_player = pending_player
21、22 example = {
23 'state': state,
24 'winner': winner,
25 'move' : move
26 }
27 optimizer.zero_grad()
28 winner, probas = pending_player.predict(example['state'])
29、30 loss = criterion(winner, example['winner'],
31 probas, example['move'])
32 loss.backward()
33 optimizer.step()
34、35 ## Fetch new games
36 if total_ite % REFRESH_TICK == 0:
37 last_id = fetch_new_games(collection, dataset, last_id)
训练用的损失函数表示如下:
1class AlphaLoss(torch.nn.Module):
2 def __init__(self):
3 super(AlphaLoss, self).__init__()
4、5 def forward(self, pred_winner, winner, pred_probas, probas):
6 value_error = (winner - pred_winner) ** 2
7 policy_error = torch.sum((-probas *
8 (1e-6 + pred_probas).log()), 1)
9 total_error = (value_error.view(-1) + policy_error).mean()
10 return total_error
三是评估 (Evaluation) ,看训练过的智能体,比起正在生成数据的智能体,是不是更优秀了 (最优秀者回到第一步,继续生成数据) 。
1def evaluate(player, new_player):
2 results = play(player, opponent=new_player)
3 black_wins = 0
4 white_wins = 0
5、6 for result in results:
7 if result[0] == 1:
8 white_wins += 1
9 elif result[0] == 0:
10 black_wins += 1
11、12 ## Check if the trained player (black) is better than
13 ## the current best player depending on the threshold
14 if black_wins >= EVAL_THRESH * len(results):
15 return True
16 return False
第三部分很重要,要不断选出最优的网络,来不断生成高质量的数据,才能提升AI的棋艺。
三个环节周而复始,才能养成强大的棋手。
有志于AI围棋的各位,也可以试一试这个PyTorch实现。
本来摘自量子位,原作 Dylan Djian。
代码实现传送门:
网页链接
教程原文传送门:
网页链接
AlphaGo Zero论文传送门:
网页链接
免责声明:
本文《自学围棋的AlphaGo Zero,你也可以造一个》版权归原作者所有,内容不代表本站立场!
如本文内容影响到您的合法权益(含文章中内容、图片等),请及时联系本站,我们会及时删除处理。
推荐阅读

盟军敢死队1攻略-轻松过关
盟军敢死队101、首先玩家进入游戏完成序幕任务,记住几个快捷键的作用:Shift +X瞬间移动、Shift+I无敌、Shift+N完成任务、Ctrl+V隐形。 02、刚开始的热身任务比较简单,三个队...
阅读: 625

NBA2KOL街头赛有哪些技巧?
01、卡位:当你跑到对手前面的时候,按住W既可以构成卡位,当你被对方卡位的时候,按住shift和w和方向,就可以伺机摆脱对方卡位 02、靠打:如果你玩的是一个中锋,你可以不停的在篮筐下靠打,寻找机会...
阅读: 635

生死狙击身法教学连跳和弹跳
01、很多人看了一些大神的视频,几乎是全程连跳和弹跳,非常羡慕。可是很多人都不会连跳和弹跳,那么如何练习这两个技能呢? 02、所谓连跳,顾名思义是一种跳法,操作简单。连跳熟练后,可以尝试学习弹跳。 ...
阅读: 590

天龙八部私服如何安装?
天龙八部游戏 01、想要下载安装天龙八部私服,就要先把正式服更新到最新的版本才可以。 02、更新好以后,打开搜狗搜索输入:天龙八部私服,点击搜索。 03、再搜索出来的结果中选择一个进入,点击下载...
阅读: 686

dnf90级ss哪个图爆率高?
01、首推当然是时间广场,单个房间距离短,可高速刷图。 02、其次就是魔界裂缝,每天可以刷三次,建议每天刷。 03、最后就是地轨中心区域的时空裂缝,但是每个图会多消耗两张票。 04、最后一个就是...
阅读: 611

LOLS7劫影流之主中单最新出装天赋符文加点
01、劫是一位爆发型的中单英雄,经常在团战之中秒杀掉对面的主要输出然后让团战大获全胜。召唤师技能一般是闪现和点燃 02、他的Q技能是丢出一个飞镖,W技能召唤一个影分身,E技能手里剑范围伤害,R技能标...
阅读: 662

魔兽世界7.0如何快速升1-110级
01、首先是选择种族,随后开始游戏。1到15级只能在新手村里做新手任务,只有做完新手任务才能走出新手村,开始魔兽世界的神奇冒险。 02、15级到70级又两种选择:第一种:不做主线疯狂刷地下城,升级快...
阅读: 633

吞食天地2 景帝墓迷宫图文攻略
01、景帝墓迷宫是这个游戏中最困难的迷宫,不过第一关还是比较简单,没什么难度,一直往右走即可。 02、第二关比较复杂,往前走两个路口右转,直走第二个路口左转,直走第三个路口左转,直走第二个路口左转,...
阅读: 1076

赛尔号谱尼怎么打
01、首先需要我们打开星际地图,选择太空站左翼。 02、将如图所示的这两个灯点亮为绿色,未点亮时为蓝色。 03、进入中间的通道。 04、最终到达谱尼所在的神秘领域。 05、要想得到谱尼,必须打...
阅读: 1068

穿越火线刷等级方法技巧介绍
电脑01、刷雷的意思就是刷经验,在穿越火线的不同频道里看一下,频道里面有名字为刷雷房的房间,如果这些房间还没有开始游戏,你点击加入游戏,然后等待一会而就开始游戏了,你进入游戏之后只需要准备手雷在游戏一...
阅读: 937
热门文章
1.如何修改iCloud密码?密码忘记了怎么办
- 1

- 如何修改iCloud密码?密码忘记了怎么办
- 2022-12-14
- 1
2.如何快速安装2014年天正建筑破解版
- 2

- 如何快速安装2014年天正建筑破解版
- 2022-12-14
- 2
3.怎么根据ISBN码查询书籍信息
- 3

- 怎么根据ISBN码查询书籍信息
- 2022-12-14
- 3
4.网上淘宝qt兼职刷信誉靠谱吗?是真的吗
- 4

- 网上淘宝qt兼职刷信誉靠谱吗?是真的吗
- 2022-12-14
- 4
5.微信小程序开发教程---第一个小程序
- 5

- 微信小程序开发教程---第一个小程序
- 2022-12-14
- 5
6.如何让文章获得高阅读量?
- 6

- 如何让文章获得高阅读量?
- 2022-12-14
- 6
7.如何掌握网络营销策略?
- 7

- 如何掌握网络营销策略?
- 2022-12-14
- 7
8.如何学习好网络营销?
- 8

- 如何学习好网络营销?
- 2022-12-14
- 8
9.如何做好网络营销推广?
- 9

- 如何做好网络营销推广?
- 2022-12-14
- 9
10.微信公共号群发信息详细教程
- 10

- 微信公共号群发信息详细教程
- 2022-12-14
- 10
最近更新

怎么将wps输出为pdf的文字水印设置为单行
2025-04-26

Ubuntu 20.04新增仓颉输入法
2025-04-26

950显卡能吃鸡吗
2025-04-27

扫描件是什么格式的
2025-04-26

win7怎么设置屏幕休眠密码(win7屏幕保护设置密码)
2025-04-26

电脑怎么删除桌面图标 笔记本电脑如何删除桌面上的图标
2025-04-26

怎么用vlookup匹配数据?
2025-04-26

嗜睡说明了什么问题
2022-12-21

入睡很困难该怎么办
2022-12-20

发质不好可以怎么办
2022-12-21
