来源:学术头条 时间:2023-06-06 21:21:49
在 WWDC 上,苹果只字未提“人工智能”,以及“ChatGPT”等当前科技界内的一些更为流行的词汇。
(资料图片仅供参考)
苹果所做的,只是简单地提及了 7 次“机器学习”。
即使是在介绍他们准备了 7 年的 AR 眼镜 Vision Pro 时,也只是表述为“使用了先进的编码-解码神经网络”。
这与微软、谷歌等硅谷大厂在当前大模型浪潮中的“高调”做法截然不同。
难道,真如一些专家、媒体所言,苹果已经在这次 AI 竞赛中掉队了?或者说他们依然在观望?实际上,并非如此。
尽管苹果没有在 WWDC 上谈论AI 大模型,但他们介绍了一些基于 AI 的新功能,如改进的 iPhone 自动更正功能,当你按下空格键时,它可以完成一个单词或整个句子。
该功能基于使用 Transformer 语言模型的 ML 程序,使自动更正比以往任何时候都更加准确,而 Transformer 是支持 ChatGPT 的重要技术之一。
苹果表示,它甚至会学习用户如何发短信和打字,从而变得更好。
据介绍,新的“自动更正”由设备上的机器学习提供支持,多年来,苹果一直在不断改进这些模型……借助 Apple Silicon 的强大功能,iPhone 可以在用户每次轻按按键时运行此模型。
“在那些你只想输入一个 Ducking word的时刻,键盘也会自己学习”,苹果软件工程高级副总裁 Craig Federighi 说。
另一个例子是苹果对 AirPods Pro 的改进,即“当耳机检测到用户对话时会自动关闭降噪功能”。苹果没有把它作为一个机器学习功能,但这是一个很难解决的问题,而解决方案是要基于 AI 模型的。
此外,识别 PDF 中要填写的字段、识别你的宠物等新功能,也同样是基于苹果在神经网络方面的研究工作。
在 WWDC 上,苹果没有谈论具体的 AI 模型,或训练数据,或未来可能改进的方向,而是简单地提到了“这些功能背后有很酷的技术做支持”。
与其竞争对手的做法不同,苹果希望在其设备上建立 AI 模型。
新的“自动更正”等功能正是基于这一想法,它是在 iPhone 上运行的,而像 ChatGPT 这样的模型则需要由数百个昂贵的 GPU 共同训练。
这样做的好处是,运行在设备上的 AI 绕过了很多基于云的 AI 面临的数据隐私问题。当模型可以在手机上运行时,苹果只需要收集更少的数据就可以运行它。
值得关注的是,苹果此次也公布了 M2 芯片家族的最新成员——M2 Ultra。它采用第二代 5 纳米工艺制造,拥有多达 24 个 CPU 内核、76 个 GPU 内核和 32 个内核的神经引擎,每秒可进行 31.6 万亿次运算。
苹果表示,这种能力可能会在训练“大型 Transformer 模型”时派上用场。
“M2 Ultra 可以支持高达 192GB 的统一内存,比 M1 Ultra 多 50%,这使其能够完成其他芯片无法完成的任务。例如,在一个单一系统中,它可以训练庞大的 ML 工作负载,如大型 Transformer 模型,这类模型即使是最强大的离散 GPU 也无法处理,因为其内存不足。”
M2 Ultra 的问世,让一些人工智能专家感到兴奋。
“无论是偶然还是有意为之,苹果硅统一内存架构意味着高端 Mac 现在真的是运行大型 AI 模型和进行 AI 研究的惊人机器”,Perry E. Metzger 在推特上表示,“在这个价位上,确实没有多少其他系统能提供 192GB 的 GPU 可访问内存。”
更大的内存意味着更大、能力更强的 AI 模型可以装入内存中,这可能使得许多人有机会在个人电脑上训练 AI。
尽管尚未有 M2 Ultra 与A100的性能评估,但至少从目前看来,苹果已经公开进入生成式 AI 训练硬件领域。
当前聚焦:协鑫能科: 关于增设子公司募集资金专户并授权签订募集资金专户监管协议的公告