王硕, 阎妍
图书馆论坛. 2026, 46(4): 51-62.
随着“提示”成为人与生成式AI交互的核心界面,“提示伦理”作为一个新兴AI伦理议题的重要性日益凸显。提示伦理并非传统上游的数据伦理、算法伦理、算力伦理或下游平台伦理问题的简单延伸,而是连接二者、动态触发并建构风险的中游枢纽。文章基于用户意图与风险来源,构建二维分析框架,揭示了提示伦理风险的两种类型:一是由恶意提示利用模型漏洞或滥用其能力所引发的安全风险,如提示注入、越狱与操纵;二是由海量普通用户在日常交互中无意触发的、更具普遍性的风险,如偏见固化与无意识的隐私泄露。应对这一复杂的风险图景,需要构建一个整合性的治理体系,包括以输入过滤与对抗性训练为代表的技术护栏,以标准化操作规程和伦理准则制定为核心的组织规制,以及包含法律框架、全民提示素养提升与平台治理的社会协同。文章指出,提示伦理治理并非为技术设限,而是为安全、公平、有效地释放生成式AI的社会价值保驾护航。