发生了什么
Apple 在 iOS 19 中扩展了 Apple Intelligence,对设备上的 AI 功能进行了重大升级。 新版本包括更强大的设备上语言模型、增强的图像理解以及用于将 Apple Intelligence 功能集成到第三方应用程序中的新开发者 SDK。
为什么它很重要
### 设备上基础模型 iOS 19 附带了完全在设备上运行的 3B 参数语言模型:
- 无需互联网连接
- 完整的数据隐私
- 大多数任务的延迟低于 100 毫秒
- 支持摘要、重写、翻译、代码辅助
### 新的开发者 API
__代码_块_0__
### 增强的 Siri Siri 现在利用设备上的模型来:
- 跨应用程序完成多步骤任务
- 使用屏幕内容进行上下文感知响应
- 基于使用模式的个性化建议
- 自然的对话流程,无需云往返
## 开发者影响
### 新框架 - AppleIntelligence SDK:用于常见 AI 任务的高级 API - Core ML 8:改进的模型转换和优化工具 - 创建 ML 5:使用增强的数据集直接在 Mac 上训练自定义模型 - Metal Performance Shaders Graph:自定义模型的 GPU 加速推理
### 整合机会
1. 写作工具:应用程序可以利用系统范围的写作帮助 2. Image Playground:在任何应用程序中生成和编辑图像 3. 智能搜索:人工智能驱动的跨应用内容搜索 4. Genmoji:所有应用程序均可生成自定义表情符号
## 性能基准
| 任务 | iOS 18 | iOS 19 | 改进 |
|---|---|---|---|
| 文本摘要 | 2.1秒 | 0.8秒 | 快 2.6 倍 |
| 图片描述 | 1.5秒 | 0.4秒 | 快 3.75 倍 |
| 翻译 | 0.9秒 | 0.3秒 | 快 3 倍 |
| 代码完成 | 不适用 | 0.5秒 | 新功能 |
## 下一步是什么
Apple 计划通过以下方式扩展 Apple Intelligence: - 增强 AR 应用的设备端视觉功能 - 通过 App Intents 与第三方应用程序进行更深入的 Siri 集成 - 设备上微调个性化模型 - 提高团队生产力的协作人工智能功能
## 总结
iOS 19 中的 Apple Intelligence 代表了设备端人工智能向前迈出的重要一步。 对于开发人员来说,新的 API 提供了强大的、保护隐私的 AI 功能,无需互联网连接即可工作。 对设备上处理的关注使苹果的方法有别于依赖云的替代方案。