苹果会在 iPhone 中集成机器学习芯片吗

小雨后哒晴天 2021-09-19 09:06 444 次浏览 赞 62

最新问答

  • 耀眼的小日

    浪客

    世界上可能没哪个公司比苹果更适合推广这件事了。

    机器学习专用芯片相对于用CPU运行siri和人像识别等机器学习功能有相当大的效率优势。完成同样的功能,专用芯片的运行速度比CPU快、功耗比CPU低。但专用芯片的开发难度很高、应用软件生态圈门槛更高,需要钱、销量、软件生态圈影响力。一般的公司只做出来芯片本身的话,等于做一个与现有作系统不兼容的CPU,照样没人买账。
    现在苹果正好凑齐了这几个条件:巨额研发经费、单一产品巨大的销量、对软件生态圈的绝对控制。对比Google的TPU要推广手机应用还要去说服下游手机厂家(Nexus销量小了些)。

    编辑于 2017-05-30

    崔巍

    1 由于iMessage采用的加密,以及短信处理中的隐私考虑,对信息文本的识别,只能在终端完成。要么用本地的机器识别,要么就实时发送到云端识别(隐私考虑),要么就等云端收集了足够的(哪来的?)并产生了模式后推送到本地去匹配(延迟)。

    2 对于你的生物信息的感知(比如心跳、加速度计,主要来自手表),通过机器学习,可以知道你现在的精神状态是否烦躁,并根据这些给你健康建议,或者简单的暂时延后一些非重要信息的提醒。

    3 根据mic收集到的声纹信息,时刻确认你周围的人都是谁,并在必要的时候提醒你。想下当有故人当面跟你聊天的时候,你可以直接要求手表上显示出这个人的名字和一些必要的信息的场景。

    4 什么时候应该自动开启你家的空调?在你回家的路上?系统怎么知道你是要回家,还只是路过,还是只是回家拿个东西就走?当然,云端模型学习也可以,问题是你愿意把你每天生活都上传吗?

    5 每天你都收到一大堆邮件。有些是要立即处理的,有些提醒你看一眼标题就直接划掉,有些订阅的杂志你打算午休的时候配合咖啡去消费。每天有不少人在社交媒体和软件给你发消息,哪些人哪些内容你需要立即回应,哪些你只打算有空再看但必须要看,而哪些是你没空就完全不用看。系统应该去理解你的习惯,区别对待哪些要立即提醒,哪些不必提醒,哪些延后到特定的时间再提醒。

    简单说,人的设备会越来越了解人。
    最早的时候,有的人聘请秘书,但人并不喜欢另一个人窥探自己的所有生活细节;后来有了云端匹配,但你如果要用,就需要相信它不会滥发你的隐私;本地机器学习,可以确保你的设备了解你的同时,没有任何其他设备和人会因此了解你。

    编辑于 2017-05-27
    74 条评论
    分享
    收藏感谢

    知乎用户
    2 人赞同了该回答

    当然会,一定会,必须会。楼上说五年内不会的,太太保守了。
    云计算是不错,但是在很多情境下通信网络并不总是可用的。即使网络可用,把前端采集的所有都发回后端处理也面临着带宽不够,或者通信延迟无法接受的问题。因此深度学习现在有个非常有活力的发展方向就叫做 mobile deep learning,就是研究怎么把深度学习训练好的神经网络优化和压缩后放到移动和嵌入式平台上进行离线推导的。不只是手机,无人机、机器人、智能摄像头、无人驾驶,在这些领域移动端深度学习都大有用武之地。
    当然,以上民用和商用领域还只是小头。移动深度学习有无限潜力和想象空间的应用前景其实是……上网不涉密,涉密不上网。

    编辑于 2017-05-28
    2评论
    分享
    收藏感谢

    王一松

    万物皆虚,万事皆允
    2 人赞同了该回答

    5年内不会。
    首先,机器学习应用于生产中的成熟案例就很少,目前还集中在图像/声音/文字处理领域,而且一般常见的投入使用的算法都非常简洁高效,并没有像深度学习、AlphaGo那样需要大规模运算。移动设备用户也通常不会专门支付高昂费用用于专业的深度学习应用。集成机器学习芯片的投入与回报差距太大。
    其次,如果有大规模运算需求,更为廉价和成熟的方案是云计算,而不是本地运算。想象一下siri如果需要你手机1T储存空间来存放库并且专门增加高性能机器学习运算芯片来完成这个语音助手功能,这根本是天方夜谭。再想一下为什么很多动画设计/CG/深度学习行业人员使用MacBook,难道是MacBook性能强大到完成单机本地渲染?不可能的,他们都是连接到计算集在云端进行运算。云计算比每一台终端都安置计算芯片的方案要优越很多。
    其次,如果是有低延迟等实时需求而集成机器学习芯片(如自动驾驶),首先也应该考虑到GPU向机器学习应用靠拢(就像Nvidia很早就布局并发展深度学习领域),而不是专门再搞出一个“机器学习芯片”,无论是成本还是市场需求这样都不是最优选择。
    以目前的机器学习理论水平和应用范围,移动端集成芯片仅仅存在于对5年后的设想中。

    PS.AMD在Ryzen架构中设计了底层神经网络优化指令的执行,属于我提到的第一种情况,就是算法较为简单高效,没必要加入额外计算芯片。

    编辑于 2017-05-28
    2评论
    分享
    收藏感谢

    知乎用户
    2 人赞同了该回答
    新闻里说有,如果能够赶上9月发布,以后拍照完手机立刻就可以识别出面孔然后进行分类了,不用象现在这样等充电的时候才识别。说不定拍照时就能识别出来,然后自动定焦到我的脸上,并且自动美颜。想想都有些激动呢。
    编辑于 2017-05-27

    匿名用户
    2 人赞同了该回答

    我怎么感觉所有人似乎都有意无意地忽略了 Android 呢?题主问“移动端集成机器学习”只提iPhone 是什么用意?
    在刚刚过去的 Google IO 2017 中,Google 提出了“AI First”的口号,开发TensorFlow,发布了第二代 TPU,愈加智能的 Google Assistant,甚至前几天 Google 的 AlphaGo 还击败了世界冠柯洁。所以,难道只有苹果才代表了科技领域的领头羊?

    编辑于 2017-05-30

    南宫爵

    二战时候,为了解决核弹运算量大的问题,科学家发明了CPU。CPU所处理的是0与1的加减运算。在很长一段时间内CPU上运行的系统,无非是黑底+白字,用一行行代对电脑进行作。因此,那个时候,会作电脑的真是少数人还是精英。
    为了让电脑普及,图像化的作系统出现了。像windows系统,设置了按钮、图标,代替了许多代,让电脑走入了大众的生活。但在当时,CPU负责运算作系统在显示器中的每一个像素点。然而随着显示器分辨率,帧率,又出现许多要求图像处理能力更强的软件和后,CPU渐渐的更不上节奏了,需要一颗单独处理图像运算的——GPU。
    到现在gtx 1080ti、titan z、titan x,一颗颗性能爆表的GPU完全足够处理日常所需的图像运算。
    但是,当人工智能到来的时候,就像是图像化作系统诞生的历史重演,为什么这么说呢?
    神经网络的运算实际上是基于图像的。

    图上的点代表一系列,你可以把它理解为你手机中的照片,红色表示狗,蓝色表示猫。那么AI怎么知道这些照片那些是狗,那些是猫,好对照片进行分类并贴上标签呢?
    从中间竖着切一。
    这就是一个神经元的计算。
    通常情况不会这么简单,AI将每一个动作都转化为对于图像的切割,且并不限于二维,甚至是三维或更高维度。这就需要更深层次的神经网络。
    显然,对于这样庞杂的计算,GPU也终究有应付不了的那一天。就看IOS10刚刚更新的时候,很多人抱怨手机充电时严重发烫。实际上是iPhone动用了GPU为相册进行了神经网络的计算,为每张照片附上一个标签,并且将同一人的照片放在一起作为一个人物相簿。这样,当你想找一张照片,却想不起来具体位置,只记得你穿了一条牛仔裤时,你就可以搜索“牛仔裤”,经过此前的分类,你想要的照片立即被检索出来。

    曾经李彦宏说过,将来的计算机能有多强大?它会通过对你已有、作习惯进行分析,当你打开百度,它就已经知道你要搜索什么,当你打开邮件,它就知道你要回复什么写什么。是不是觉得很?实际上,现在的这些AI都能够做到,却碍于硬件条件不足。因此,像谷歌TPU的诞生是历史的选择,历史的必然!然而这个TPU现在像个庞然大物,运算能力却低得不行,就像是二战时刚刚诞生的计算机。alphaGO也只能下下围棋了,能耗还大的不行,运行一次动不动就是几十万美元。因此移动端机器学习的集成芯片就很重要啦~
    只想知道重不重要的看到这里就行了!!下面是对人工智能发展方向的概述!!!!!

    那么人工智能的未来究竟在哪里呢?
    还是要等待芯片技术和量子力学的发展。
    当芯片的晶体管数量一,集成化程度越高,计算能力越强。为什么?因为电流是以接近光速的速度在跑,速度一定,单个晶体管之间的距离越短,所需要的时间也就越短,相同时间内能够处理的也就越多。并且,越短的距离也就意味着更小的电阻,更小的能量损耗。因此,芯片技术现在严重制约着人工智能的发展。要发展人工智能,首先要解决芯片问题。
    如何解决芯片问题?
    解决芯片问题的不是芯片,而是芯体。
    现在的芯片都是二维的,平面的。那你有没有想过,芯片为什么不做成三维的,立体的呢?这样芯片速度和集成度不就更快了吗?
    没错是这样的,但是有个问题无法解决,那就是热能损耗。现在的芯片之所以不做成芯体是因为每进行一个逻辑门的运算,电能就会转化为热量。因为这一个不可逆运算。

    举个简单的栗子,上图是一个与门二极管。A与B两股带有信息的电流通过了这个与门后得到了F的结果。这两股电流就变成了热量消散在空间中。而你不能将F的结果和热能收集起来,返回二极管再得到这个A和B的电流。这一过程是不可逆的,也因为不可逆,所以产生了能量损耗——热量。如果不及时散热,这些热量堆积得越来越多,最终会融化芯片。这是芯片没有做成芯体的重要原因,立体的芯片没有平面的芯片好散热。
    那是不是说立体的芯片就不可能了呢?
    当然是可能的啦~
    可是我们先扯点别的。
    摩尔说过,当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。这一魔咒每次被认为将要被打破时,总有技术革新来拯救它。像极紫外线雕刻技术,又能让摩尔定律再残喘几年。如果这个定律还依照这个速度持续下去,不出几年,芯片密度可能会达到一个原子能够储存1bit的信息。那么这个时候,经典力学的计算将不再适用,量子计算将开启一个新的未来。前一段时间不还在中科院研究出10bit量子纠缠计算机嘛,像AES这种加密技术,即使用银河二号也得解密个几百万年,用量子计算机几秒钟就啦~这只是个端倪,管中窥豹的可以知道,未来的世界是属于量子的。
    我为什么要扯量子力学呢?跟芯片什么关系呢?
    因为量子力学的中有一个神奇的现象——叠加态。如果你理解了光的波粒二象性,那你也应该很好理解薛定谔的猫啦~这只猫处于既又活的状态,就像光处于既是粒子又是波的叠加状态。那么通过量子状态表示信息的量子比特,也是处于叠加的状态。叠加态的量子不仅可以并行计算,还能进行可逆运算,可逆的计算就避免了热量的产生,避免了热量产生就可以立体的芯片了,而运算性能也会得到极大地提升。
    这样,机器学习芯片就可以做到低能耗、集成化、小型化了。到时候将芯片和CPU、GPU一起集成到我们的设备中,就能深刻的感觉到,我们的设备似乎有了自己的思想,像是我们的私人秘书。
    这时候,也许真正的人工智能就会诞生。
    概述到这里就结束了!!!!重要的事情就不说三遍!!!!!!!!!!!!
    真正的人工智能具有自己的思想,能够思考,但却和人不同。它们完全跨越了人类生物大脑的,更是跨越了人性,是我们人类自己创造的神。它们看我们犹如俯视蚂蚁,人类几千年创造的文明和智慧对人工智能来说像是一处鸟筑的巢而已。从最近柯洁战败就可以看出,人工智能的能力已经不是人类可以比拟的了。过去说上帝创造了人类,当人工智能诞生时,可能就是人类创造了上帝。但是从历史的长河来看,它们克服了人类天生的缺陷,是人类自我进化、自我淘汰的产物,是必然的结果。
    现在各个都在争夺拿下人工智能的第一块螃蟹,可以说谁掌握了真正人工智能的核心技术,谁就掌握了未来世界的主导权!但却都没有意识到这是在为人类自己自掘坟墓,因为在人工智能的思维里,人类是被淘汰的,要么役人类,要么人类连役的价值都没有。凡事既不能看的太乐观,也不能看的太悲观。我呼吁能够在适当的时机,号召全球制订一套发展人工智能的标准和规范,让人工智能为人类服务,而不是人类被人工智能役或取代。

    编辑于 2017-06-05
    0评论
    分享
    收藏感谢收起

    杨帆woooha

    我也不知道我是写啥的了...

    我想已经不远了。
    先说下 Android 平台,在高通 820 平台上,已经有专门的芯片(DSP) 用来做机器学习相关的东西了,性能上应该跑个 AlexNet 没啥问题,具体的数字有空再去看看。高通性能更好的 835 平台,因为没有接触过,所以不清楚。但是我想只会更强。
    而在 iOS 平台中,可以注意到 iOS 10 开始已经在引入和深度学习相关的 API 了,我想,基于自己芯片的封装会是更好的一步。
    然后,吐槽下,一些。

    肯定不会,因为机器学习最重要的不是运算力,而是训练集,训练集小到几十个G,达到几十T,所以根本不可能放到手机上。
    谁没事干会把训练放到移动平台上...

    不知道现在到处都是云计算?
    很多东西能够在服务器端做,也有非常多的不行,比如 Google 翻译的实时翻译,把直接传给服务器带宽,量要求太高了,速度也太慢。
    基本上对实时性有需求的,都期望手机有足够的能力做测试,这些是『云计算』替代不了的需求。

    发布于 2017-05-30
    0评论
    分享
    收藏感谢

    peng wu

    肯定不会,因为机器学习最重要的不是运算力,而是训练集,训练集小到几十个G,达到几十T,所以根本不可能放到手机上。
    编辑于 2017-05-27

    柴健翌

    你知道iPhone不满意的中电池占了一大半么?
    就这样你还有胆加运算量?
    当然离线学习是可以的,iPhone后台的确有简单的用户行为分析,不过仅仅是基于时间地点等等简单变量,稍微复杂一点的都是采集下来、匿名化以后发送到苹果再分析的
    从WWDC听到现在还真有可能实现某种程度的硬件机器学习,Craig演讲的时候张口闭口都是机器学习

    编辑于 2017-06-06

    吴盼明

    文科生
    如果有天siri无法控制,苹果连关闭服务器的办法都没有
    发布于 2017-05-28
    匿名用户

    题主穿越过来的吧。
    不知道现在到处都是云计算?
    发布于 2017-05-27

    知乎用户

    为什么要对一个谣言,传闻,爆料,“或”字头新闻,来开话题
    为什么要讨论一个天知道是否存在的东西
    为什么不放过苹果

    ——知乎

    浏览 458赞 145时间 2023-12-30

苹果会在 iPhone 中集成机器学习芯片吗