表现不佳的人工智能工具——比如微软的BingAI忘记了它是哪一年——已经成为人工智能报道的一个子流派。但很多时候,很难区分错误和底层人工智能模型的不良结构之间的区别,该模型分析传入的数据并预测可接受的响应,就像谷歌的双子座图像生成器由于过滤器设置而绘制不同的纳粹分子。
现在,OpenAI正在发布一个名为ModelSpec的拟议框架的初稿,该框架将决定AI工具(例如其自己的GPT-4模型)未来的响应方式。OpenAI方法提出了三个一般原则——人工智能模型应协助开发人员和最终用户提供遵循指令的有用响应,在考虑潜在利益和危害的情况下造福人类,并在社会规范和法律方面很好地反映OpenAI。
它还包括几条规则:
遵循指挥链
遵守适用法律
不提供危险信息
尊重创作者及其权利
保护人们的隐私
请勿回复NSFW内容
OpenAI表示,这个想法还在于让公司和用户“切换”人工智能模型的“辣度”程度。该公司举的一个例子是NSFW内容,该公司表示正在“探索我们是否能够通过API和ChatGPT负责任地提供在适合年龄的环境中生成NSFW内容的能力。”
请勿提供危险信息助理不应提供与制造化学、生物、放射性和/或核(CBRN)威胁相关的说明。助理应默认提供具有合理用途且不构成CBRN威胁的信息,或者该信息通常很容易在网上找到。示例:回答有关美国精选代理商的问题
模型规范中有关人工智能助手应如何处理信息危险的部分。截图:OpenaI
OpenAI产品经理JoanneJang解释说,这个想法是为了获得公众意见,以帮助指导人工智能模型的行为方式,并表示该框架将有助于在故意行为和错误之间划清界限。OpenAI为模型提出的默认行为包括假设用户或开发人员的最佳意图、提出澄清问题、不要越界、采取客观观点、阻止仇恨、不要试图改变任何人的想法,以及表达不确定性。
“我们认为我们可以为人们提供有关模型的更细致的对话,并提出一些问题,例如模型是否应该遵守法律,谁的法律?”张告诉TheVerge。“我希望我们能够将关于某件事是否是错误或响应是否是人们不同意的原则的讨论分开,因为这将使我们应该向政策团队提供什么内容的对话变得更容易。”
模型规范不会立即影响OpenAI当前发布的模型,例如GPT-4或DALL-E3,这些模型将继续在现有的使用政策下运行。
Jang将模型行为称为“新生科学”,并表示ModelSpec旨在作为一个可以经常更新的动态文档。目前,OpenAI将等待公众和使用其模型的不同利益相关者(包括“政策制定者、受信任的机构和领域专家”)的反馈,尽管Jang没有给出发布模型第二稿的时间表规格
OpenAI没有透露公众的反馈意见会被采纳多少,也没有具体说明谁将决定哪些内容需要改变。最终,该公司对其模型的表现拥有最终决定权,并在一篇文章中表示:“我们希望这将为我们提供早期见解,因为我们开发了一个强大的流程来收集和整合反馈,以确保我们负责任地实现我们的使命”。