中国大学MOOC: 机器学习是AlphaGo取胜的关键,AlphaGo结合了()的优势,通过训练形成一个策略网络,阿尔法狗团队从在线围棋对战平台KGS上获取了16万局人类棋手的对弈棋谱,并从中采样了3000万个样本作为训练样本。
监督学习和强化学习
举一反三
- 机器学习是AlphaGo取胜的关键,AlphaGo结合了()的优势,通过训练形成一个策略网络,阿尔法狗团队从在线围棋对战平台KGS上获取了16万局人类棋手的对弈棋谱,并从中采样了3000万个样本作为训练样本。 A: 无监督学习和强化学习 B: 监督学习和强化学习 C: 半监督学习和强化学习 D: 强化学习
- AlphaGo结合了监督学习和强化学习的优势,通过训练形成一个策略网络,阿尔法狗团队从在线围棋对战平台KGS上获取了16万局人类棋手的对弈棋谱,并从中采样了3000万个样本作为训练样本。将棋盘上的局势作为输入信息,并对所有可行的落子位置生成一个概率分布。然后,训练出一个价值网络对自我对弈进行预测,预测所有可行落子位置的结果
- 阿尔法狗围棋(AlphaGo)是第一个击败人类围棋。AlphaGo是什么?
- AlphaGo框架中利用大量棋谱来训练深度卷积网络,得到策略网络,同时通过强化学习来提高策略网络的能力
- 以下关于人工智能AlphaGo的说法正确的是( )? A: AlphaGo对战人类选手未曾一败 B: AlphaGo的智能源于对围棋规则的理解 C: AlphaGo使用的是深度学习来获得智能 D: 只要搜集了人类所有的棋谱,AlphaGo将不可战胜
内容
- 0
同样是打败了人类棋手的智能系统,阿尔法狗和深蓝的不同在于,它学习了大量国际象棋棋谱。( )
- 1
2016年3月15日,由算法驱动的阿尔法狗(AlphaGo)以四胜一负的成绩打败了人类围棋顶尖高手——柯洁。
- 2
2017 年 10 月,AlphaGo Zero通过72小时的自我学习和训练,以10比0的佳绩打败了它的“前辈”AlphaGo。以下对于 AlphaGo Zero描述中,错误的是( ) A: AlphaGo Zero是完全从零开始,不需要任何历史棋谱的指引,更不需要参考人类任何的先验知识,完全靠自己通过强化学习(Reinforcement Learning ),左右互搏来增长棋艺,最终达到百战百胜。 B: AlphaGo Zero的成功意味着,AI从此将进入到无需人类知识,不受人类控制的时代。 C: AlphaGo Zero在围棋领域的成功,并不意味着这种“无师自通”能够迁移到其他领域,例如麻将、扑克、自动驾驶、语音识别等。 D: AlphaGo研究了数千个人类棋谱的例子,这个过程被称为“监督学习”。而AlphaGo Zero则属于无监督学习的产物。
- 3
人机大战下棋的有( )。 A: Deep Blue(深蓝) 中国象棋 B: AlphaGo(阿尔法狗) 围棋 C: AlphaGo(阿尔法狗)军棋 D: Deep Blue(深蓝) 国际象棋
- 4
无需棋谱即可自学围棋的人工智能是( )。 A: AlphaGo Lee B: AlphaGo Fan C: AlphaGo Zero D: AlphaGo Master