2017 年 10 月,AlphaGo Zero通过72小时的自我学习和训练,以10比0的佳绩打败了它的“前辈”AlphaGo。以下对于 AlphaGo Zero描述中,错误的是
举一反三
- 2017 年 10 月,AlphaGo Zero通过72小时的自我学习和训练,以10比0的佳绩打败了它的“前辈”AlphaGo。以下对于 AlphaGo Zero描述中,错误的是( ) A: AlphaGo Zero是完全从零开始,不需要任何历史棋谱的指引,更不需要参考人类任何的先验知识,完全靠自己通过强化学习(Reinforcement Learning ),左右互搏来增长棋艺,最终达到百战百胜。 B: AlphaGo Zero的成功意味着,AI从此将进入到无需人类知识,不受人类控制的时代。 C: AlphaGo Zero在围棋领域的成功,并不意味着这种“无师自通”能够迁移到其他领域,例如麻将、扑克、自动驾驶、语音识别等。 D: AlphaGo研究了数千个人类棋谱的例子,这个过程被称为“监督学习”。而AlphaGo Zero则属于无监督学习的产物。
- 以下关于AlphaGo与AlphaGo Zero的说法错误的是( )? A: AlphaGo Zero并没有任何数据输入 B: AlphaGo拥有48个神经网络训练专用芯片,但棋艺却比Zero更低 C: AlphaGo因为没有人类数据输入,所以其智能的获得与数据无关 D: AlphaGo Zero以100:0战胜AlphaGo,所以AlphaGo Zero一定训练了更久
- 以下关于AlphaGo与AlphaGo Zero的说法错误的是( )?? AlphaGo Zero并没有任何数据输入|AlphaGo拥有48个神经网络训练专用芯片,但棋艺却比Zero更低|AlphaGo因为没有人类数据输入,所以其智能的获得与数据无关|AlphaGo Zero以100
- 下面选项中()是通过使用人为设定的特征,学习人的下棋方式进行训练。 A: AlphaGo Zero B: AlphaGo Fan C: AlphaGo Lee D: AlphaGo Master
- AlphaGo Zero和AlphaGo最大的区别是,它不再需要( )。