时间:2020-08-14 04:12 来源:www.googdao.com 作者:google竞价服务中心
之前Google为了预防AI机器人对人类造成伤害,对机器人装配了“切断开关”。而目前伴随Google的AlphaGoAI的进步,Google与其他合作公司都在考虑AI范围的研发和采用人工智能的过程中可能遇到的具体问题,大伙都会担忧将来可能会引发的安全问题,于是乎,Google研究团队的Chris Olah在最近的一篇博文中阐述了开发出更智能、更安全AI的“五大规则”。下面谷道谷歌竞价排名的我们就为你介绍下“五大规则”:
1、防止负面效应:人工智能在完成任务时,不应该被周围环境打扰。
2、防止奖励黑客:人工智能应妥当完成任务,而不是借助一些迂回的办法。
3、可扩展的监督:人工智能无需接收持续的反馈或干扰性的输入信息。
4、安全探索:人工智能在学习时不应伤害自己或环境。
5、强制性到分布式的转变:人工智能要可以辨别全新的环境,并在新环境中有效完成任务。
并且Olah在博文中指出:“这些都是具有前瞻性的、长期的研究问题——这些目前看起来可能是小问题,但对将来系统则至关要紧。”
前段时间,Google DeepMind实验室正在研究人工智能“终结开关”,来预防人工智能机器发生一些人类没办法控制的行为,最近,Google 人工智能智能专家和斯坦福大学、加州大学伯克利分校和伊隆·马斯克主导的Open人工智能研究职员一起合作,筹备打造“解决人工智能安全隐患”的系统。伴随AI技术的不断进步,对于人工智能 的行动准则还是有必要进行规范的,毕竟人工智能内部的逻辑将决定行为的性质,大量伤害性事故的发生,都是内部逻辑问题造成的冲突,所以在人工智能技术开发阶段初期,更应该设定好较为平和周密的逻辑准则。