为防止机器人伤害人类,科幻作家阿西莫夫于1940年提出了“机器人三原则”,请问是哪三原则?
第一法则机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害。第二法则除非违背第一法则,机器人必须服从人类的命令。第三法则在不违背第一及第二法则下,机器人必须保护自己。
举一反三
- 为了防止机器人伤害人类,科幻作家阿西莫夫(IsA.A.C..A.simov)于1940年提出了“机器人三原则”,请问机器人三原则是什么?
- 为了防止机器人伤害人类,科幻作家阿西莫夫 (Asimov)于1940年提出了机器人的伦理性纲领— “机器人三原则”:
- 科幻作家阿西莫夫于1940年提出了“机器人三原则”包括:
- 为了防止机器人伤害人类,科幻小说家艾萨克·阿西莫夫于( )年在小说中提出了“机器人三原则”。 A: 1942 B: 2010 C: 1946 D: 2000
- 为了防止机器人伤害人类,科幻作家阿西莫夫于1940年提出了“机器人三原则”,他们分别施( )。 A: 机器人不能伤害人类,也不能看见人类受伤害而袖手旁观; B: 机器人应该服从人的命令,但不得违反不能伤害人类的原则; C: 机器人应该保护自己,但不应违反不伤害人类和服从人命令的原则; D: 机器人可以不受任何约束而动作。
内容
- 0
早在1940年,科幻作家阿西莫夫就提出了“机器人三原则”,三原则是() A: 机器人不应该伤害人类 B: 机器人应该遵守人类的命令,与第一条违背的除外 C: 机器人应能保护自己,与前两条相抵触的除外 D: 以上说法不存在
- 1
为了防止机器人伤害人类,科幻作家阿西莫夫(Isaac.Asimov)于1940年提出了()。
- 2
科幻作家()于1940年提出了“机器人三原则”
- 3
智慧职教: 美国科幻作家艾萨克·阿西莫夫提出(),通过内置的机器伦理调节器设定机器人不得危害人类的原则。
- 4
科幻作家阿西莫夫提出的机器人三定律是?