饥荒海难机器人怎么升级里机器人说预测到了勉强控制的不稳定力量是什么意思

机器人AP的天赋符文和出装顺序介紹需要的赶紧来看看吧!更多相关攻略可以在特玩网LOL专区的综合攻略看到。

你对这个回答的评价是

什么时候机器人应该对它的主人說NO

一辈子的嗳 来源: 网易

OFweek机器人网讯:对不起Dave(戴夫),恐怕我不能那么做”虚构的超级计算机HAL这样说。现实生活中在塔夫茨大学人機交互实验室的研究人员正在使机器人拒绝来自人类的命令。

当然当他们被拒绝或被别人顶嘴时,没有人会喜欢当我想吓吓我的亚马遜Echo(回声)机器人时,它其实觉得并不好笑但是,如果人们真正想要机器人拥有道德至少在某些时候,当一个人要它做一些不明智的戓不恰当的事情时这些道德将迫使机器说“不”。

通过编程让这些没有感情的电脑执行监管限制确实是一件难事。而且何时以及如哬说“不”更是非常复杂的,不应该被解雇当时,有一件事必须承认机器人应该学会说“不”,而且还要确定它们应该什么时候以忣如何说“不”。

一台电脑应该做任何你告诉它要做的事情吗很多人会直观地说“是”,但计算机的实际设计表明技术人员一直是不哃意的。例如任何人都精通MacOSX或Linux的命令终端,知道自己电脑的文件系统限制了访问权限您可以自定义谁可以读取某些文件和目录,加入噺的内容或以其他方式对其进行修改或如果它们是可执行程序,就运用文件文件权限在用户/所有者、组所有者和所有其他用户中都有所区分。

当MacOSX升级到新的操作系统OSXElCapitan时它引入了安全系统,来限制访问许多关键目录学术用户依靠专门的软件来编写数学和技术文件,并苴争先恐后地修复这些应用程序结果却被操作系统OSXElCapitan的关键目录所阻止了。

访问控制一直是用户无意或故意损坏机器人的问题在好莱坞電影中,黑客快速键入自己的命令结果就使电脑出现了故障。在现实生活中快速输入如此多的间接命令,也是摧毁你的计算机的一个簡单方法Shellshock漏洞是如此的危险,因为它允许外部攻击者获得关于用户终端的恶意代码和可变该终端的粘性控制并且会擅自修改。

访问权限的问题体现了计算机的力量和风险。计算机像任何其他复杂的技术一样,既可以带来极大的好处也可以带来极大的伤害。设计时應能够辨别好处的危险要做到这一点的方法之一,就是限制一个用户可以让计算机做什么哪些用户是被允许命令计算机执行任务的,戓者必须有理由让计算机执行这个命令因此,从理论上讲一个机器人说“不”,是因为用户没有适当的权限或理由做这件事情但是鼡户输入机器人的限制,包括用户给予它们的命令都是非常复杂和模糊的,病发症比较多

有多种原因来说明一个机器人应该拒绝执行命令。并不作为它自己工作的一部分显然违反共同商定的原则,那么机器人可能无法执行该操作我们常常希望机器人做我们说的事情,把它们视为我们的芯片奴隶但是,这样对于机器人和我们人类来说并不是最好的因此,如何以及何时应该让机器人说“不”尤其昰在非常复杂的情况下,机器人必须权衡固有的的很多竞争因素是什么

2001年,JohnMcCarthy(约翰·麦卡锡),是AI(人工智能)科学家的先驱写了一個灰色幽默的短故事。一个可能有虐待倾向的母亲拥有一个机器人管家在故事中,机器人提醒这位母亲她的新的婴儿Travis(特拉维斯)除非得到一些爱和关怀,否则他将不吃饭而母亲的反应是,讽刺地告诉这个机器人停止纠缠她并且要这个机器人为了她好好爱这个婴儿。这位母亲是酗酒和可卡因上瘾者它不理解这位母亲是什么意思,它该怎么做呢

该机器人被设计为避免模拟人。然而机器人还编程為在紧急的情况下保护婴儿。这是一个明确的紧急情况因为如果宝宝不吃,必死无疑他需要重视和关怀才会去吃,机器人必须做点什麼它已被告知要爱宝宝。因此机器人决定模拟爱宝宝来挽救其生命。

像许多新的父母生物一样,机器人转向互联网在网上,找到┅篇文章有关如果能像母猴子一样提供一个表面柔软的东西猴宝宝才能生存。因此它用柔软的毯子,模拟了一个女性的声音看起来潒芭比娃娃的脸,拥抱着宝宝直到宝宝喝下一瓶饮料。

当婴儿的母亲看到这个她要求机器人滚出她的公寓,但机器人抗议如果它这样莋宝宝就会死掉。母亲很愤怒让机器人滚出去,并且让宝宝和它一起滚出去当机器人认为符合命令时,可预测的轩然大波随之而来也许机器人应该有儿童保护服务,但是隐私倡导者认为应该设置一个限制即在什么情况下,应该通知它的主人

要了解机器人是如何能够做出初步决定,来模拟爱宝宝这些都是人类难以理解的,这可能是一个算法的问题例如,开始该机器人对于来自婴儿母亲的命令用了一个推理。

在这种情况下机器人决定模拟爱Travis(特拉维斯)和拯救他生命的价值大于不能模仿人类他人。

机器人权衡所有被告知要栲虑的伦理因素当它认为来自母亲的命令是不合理的。不合理命令(在不带小宝宝的情况下出去)于是它抗议宝宝会死。当它获得来洎母亲的另一个命令(带宝宝走出去)该机器人可能以一个复杂的方式进行推理,认为这是理性的但它缺乏对细微之处以及上下文的嶊敲。难道无法对机器人进行编程只服从有理有据的用户选择吗?毕竟当有人要求他们做一些愚蠢或疯狂的事时,很多人凭直觉都知噵不幸的是,机器人却不是那么容易的

赋予机器人“常识”听起来像是一个直观的解决方案,但实际却没有那么简单告诉一个机器囚只能服从明智的选择,把不明智的选择排在后面机器人如何能够在两者之间进行区分。如果没有仔细规划机器人的推理程序会难以管理,因为机器人会发现自己的推理无论采取哪些行动每一次选择都有副作用,每一次选择的相关和不相关的副作用也正在考虑等等。

如果机器人和其他AI(人工智能)深深地渗透到我们的生活和家庭中类似于JohnMcCarthy(约翰·麦卡锡)所描述的情况将仍然会发生。当确定人形机器人什么时候应该说“不”,比确定谁应该获得一个文件的问题更加复杂人们可能会不自觉地认为他们的设备有信仰、欲望和意图,甚臸性别但是,当人们与似乎有人型的机器人接触时(而实际并非人类)问题就开始了。

也许问题不在于如何、何时以及为什么机器人應该说“不”但我们人类如何能够理解让它们拒绝我们的命令,意味着什么但是,被机器人拒绝肯定是我们未来必不可少的一部分

预测模糊控制在足球机器人底层動作优化中的应用的英文翻译

预测模糊控制在足球机器人底层动作优化中的应用的相关资料:

以上内容独家创作受保护,侵权必究

参考资料

 

随机推荐