首页> 资讯> 详情

培养自主机器道德行为的基于原则的范例

2023-04-27 10:00:51 来源:互联网


(相关资料图)

来自哈特福德大学、康涅狄格大学和马克斯普朗克智能系统研究所的一个研究小组最近提出了一个基于案例和基于原则的行为范式,以确保自主机器的道德行为。他们的论文发表在IEEE论文中,他们认为自治系统的伦理意义行为应该以明确的伦理原则为指导,由伦理学家的共识来决定。

“今年是电影《2001:太空漫游》的50周年纪念日,”进行这项研究的研究人员之一迈克尔安德森告诉TechXplore。读《2001年的制作:世纪之交的太空漫游》的时候,感觉HAL的大部分能力已经失去了科幻的光环,濒临实现。让我震惊的是,他们的道德观是如此错误:如果HAL就在眼前,是时候纠正了。"

安德森和他的同事们一直在试图发现伦理原则,作为“机器伦理”项目的一部分,这些原则可以体现在自动机器中。他们认为人工智能的行为应该以伦理原则为指导。这些原则是由伦理学家的共识决定的,既要有助于保证复杂动态系统的伦理行为,又要作为证明这种行为的基础。

研究人员已经开发了一种可扩展的、一般案例支持的、基于原则的行为范式,称为CPB。在这个范例中,一个自治系统使用一个从伦理学家同意采取正确行动来决定其下一步行动的案例中抽象出来的原则。

安德森解释说:“CPB利用机器学习从伦理困境中的具体案例的伦理特征中抽象出伦理偏好原则。在这种情况下,更好的道德选择是显而易见的。”“一个系统可以利用这个原则来决定在任何特定时刻道德上什么是可取的。

关键词:

上一篇:微软Phone Link for iOS功能正式上线:Win11用户可操控iPhone 每日观察
下一篇:最后一页