超越“机器人三定律” 人工智能期待新伦理( 六 )

陈小平呼吁 , 为规避人工智能发展过程中的伦理道德风险 , 人工智能学术界和产业界 , 以及伦理、哲学、法律等社会学科各界应参与原则制定并紧密合作 。

他认为 , 虽然从短期看还没有证据指向人工智能有重大风险 , 但依然存在隐私泄露、技术滥用等问题 。 而无人驾驶、服务类机器人的伦理原则也须尽快探讨制定 。

美国电气和电子工程师协会还规定 , 为了解决过错问题 , 避免公众困惑 , 人工智能系统必须在程序层面具有可追责性 , 证明其为什么以特定方式运作 。

“就长期来看 , 不能等到出现了严重的问题 , 再制定措施去防止 。 ”陈小平认为 , 人工智能和其他技术的特点不一样 , 很多人工智能技术具有自主性 。 例如自主机器人在现实社会中具有物理行动能力 , 如果没有适当的防范措施 , 一旦出现严重问题 , 可能危害较大 。


推荐阅读