生命科技的伦理边界尚在探讨,另一个更为紧迫和复杂的伦理挑战接踵而至——如何为日益强大、渗透至社会每个角落的人工智能,尤其是“伏羲”这样的强人工智能,制定行为准则?制定一部《人工智能伦理宪章》被提上了最高议程。
这项工作由多部门联合牵头,叶辰作为“伏羲”的缔造者之一和顶级技术权威,自然成为核心顾问。宪章的起草过程,充满了激烈的辩论和艰难的权衡。
争论的焦点主要集中在几个方面:
1. 价值对齐问题:如何确保人工智能的目标与人类的核心价值保持一致?人类的价值观本身多元且有时矛盾,如何将其编码为AI可理解、可执行的规则?是设定简单的“不伤害人类”的“机器人三定律”(及其扩展),还是试图让AI理解更复杂的伦理概念,如正义、公平、仁慈?
在一次起草小组会议上,一位计算机专家提出可以用大规模人类反馈数据来训练AI的价值模型。叶辰当即指出了潜在风险:“数据会反映出现实中的偏见和不公。如果用来训练AI,可能会放大这些偏见,甚至固化不公正的社会结构。我们必须对训练数据进行严格的伦理清洗,并设定超越当下社会平均水平的价值导向。”
2. 透明度与可解释性:“伏羲”的某些复杂决策,尤其是基于深度学习网络的决策,有时如同“黑箱”,连它的创造者也难以完全理解其内在逻辑。这对于关乎民生、安全的重要决策是致命的。叶辰强调:“必须将‘可解释性’作为AI,特别是参与公共决策的AI的核心设计要求。我们不能接受一个我们无法理解、无法问责的‘数字上帝’。”他指示雷栋的团队,将“可解释AI”(xAI)作为“伏羲”下一阶段升级的重点。
3. 权利与责任:AI造成损害,责任在谁?是开发者、使用者、所有者,还是AI本身?关于是否赋予高级AI某种“有限法律主体地位”的讨论,尤为激烈。叶辰对此持极其谨慎的态度:“在当前阶段,谈论AI的法律主体地位为时过早。这可能会模糊责任边界,为真正的责任方开脱。现阶段,必须明确人类(开发者、部署者、使用者)的最终责任。AI是工具,工具的误用或缺陷,责任在于使用和制造工具的人。”
4. 隐私与数据权利:AI的运行依赖于海量数据,如何平衡技术进步与个人隐私保护?叶辰提出“数据最小化”、“目的限定”和“隐私嵌入设计”原则,要求在所有AI系统中默认内置隐私保护机制。
经过数月的反复打磨,参考了“火种”数据库中多个文明的经验教训,并广泛征求了社会各界意见后,《人工智能伦理宪章(试行)》终于颁布。宪章开宗明义,确立了“人类利益至上”、“公平非歧视”、“透明可控”、“权责明晰”、“隐私保护”和“和平利用”六大基本原则。
宪章不仅是一份约束性文件,更是一种宣告:人类将主动塑造AI的发展方向,使其成为增强人类能力、促进社会福祉的工具,而非失控的力量。苏雨晴在协助叶辰整理宪章最终稿时,深深感受到这份文件字斟句酌背后的千钧重量。它为“伏羲”和未来更多AI的发展划定了跑道,虽然未来必然面临新的挑战,但至少,文明已经握住了引导方向的舵轮。