摘 要: | 人工智能体具有类似人类的智能和自主能力,其行为可能导致他人或社会受损,这就要求伦理学理论面向新兴的人工智能体开放,承认人工智能体在有限意义上具有道德能力。面对人工智能体引发的伦理问题,学界出现“机器人伦理学到底是人的伦理学还是机器的伦理学”的争论,争论的焦点在于人工智能体具有的自主能力能否使其具有道德能力。这种挑战具体展开为两个方面。一方面,人工智能体能否赢得道德关怀资格。面向人工智能体开放的伦理学试图以“相似性”标准扩充“理性”标准、“感觉”标准和“生命”标准,从而将人工智能体纳入到道德关怀名单之中。另一方面,人工智能体能否成为道德主体,承担道德责任。面向人工智能体开放的伦理学尝试以基于机器学习的道德自主能力为基础,承认人工智能体是一种类似于人类的准道德主体,需要承担相应的有限道德责任。面向人工智能体开放,意味着需要调整和补充现有的、属人的伦理学理论,以便将人工智能体真正纳入到伦理学理论中来。
|