苹果智能(Apple Intelligence)仅处于测试的初始阶段,但我们已经对它的工作原理有了更多的了解。事实证明,苹果似乎对其即将推出的人工智能机器人如何回答你的问题非常小心,给了模型详细(但私密)的行为说明。
Reddit用户devanxd2000发布了他们在r/MacOSBeta上找到的说明,同时潜入最新的macOS 15.1测试版的文件路径。对于人工智能机器人来说,这样的指令并不新鲜:例如,微软(Microsoft)向其初始机器人必应(Bing AI)发出指令,要求其为用户体验提供指导,并帮助确保该模型不会向最终用户返回冒犯性或危险的结果。其他聊天机器人,如ChatGPT,允许用户添加自定义指令,以根据用户的兴趣返回更好的响应。
然而,苹果公司对苹果智能的说明很有启发性,它揭示了该公司希望其人工智能机器人在特定情况下的表现。在第一个例子中,苹果概述了邮件助手的操作说明,该助手可以从邮件和回复选项中提取数据,以突出显示邮件中包含的任何特定问题。
在第二个例子中,苹果指示机器人作为消息总结器,它不会用完整的句子说话,而是返回限制在10个单词以内的回复。
我觉得特别有趣的是苹果设定结果的方式。“这不会有帮助”听起来像是Lumon管理层会对遣散员工说的话。
然而,第三个例子可能是最有趣的。苹果公司为回复电子邮件的邮件助手提供了说明。然而,在说明书中,苹果明确指示机器人“不要产生幻觉”。幻觉是人工智能的副产品,在这种情况下,模型只是凭空捏造,开发者还没有找到解决问题的办法。也许苹果做到了,它礼貌地要求机器人不要这样做:
在第四个例子中,苹果引导苹果智能识别潜在的文本到图像提示为“安全”或“不安全”。如果是后者,苹果希望其机器人列出违规类别:
最后,还有Apple Intelligence根据用户图片库中的用户提示创建视频的说明。有趣的是,苹果希望苹果智能给人的感觉就像“电影片场的导演”,而这一功能似乎是人工智能生成的《回忆》。
据The Verge报道,测试版的代码中还有很多其他的指令,这是有道理的,因为苹果智能应用程序比上面的五种场景多得多。尽管如此,即使是这些例子也让我们了解了苹果公司对其新人工智能模型的思考过程。我想我更喜欢苹果对其机型的表现有一些发言权,而不是让这项技术完全脱离它的用户群。