AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我花了13999买了人生第一台AIPC,然后把你想知道的全测了
发布日期:2024-06-10 07:23:53 浏览次数: 1992 来源:数字生命卡兹克


我从很久以前,就一直是一个AI手机或者AIPC坚定的信念者。

前端时间把我的手机,从小米的MixFold2,换成了搭载骁龙8 Gen3的小米14 Ultra。

再加上我一直想把我那个破天选2的游戏本现在干一天活就死3次,跑个啥都崩,所以我就诞生了想换一个笔记本,换一台AIPC的念头。

我在网上搜刮了很久,看了一圈的评测,最后选了当时还没开售的联想YOGA Pro 16s AI元启
毕竟我要的是一个轻薄的全能本,既能在国内跑AI、有专属AI助手、还能做设计、还能打游戏,续航还高背着不重的。所以对CPU、软件、屏幕、重量等等都还有挺高要求的。
但是说实话,不便宜,13999的售价。但是设计我是真喜欢,反正脑袋一热,就冲了。
在5月20号那天早上,他们10点08开售的那一瞬间,我就进去,花了13999,抢了一台我人生中的第一台AIPC。

速度贼快,第二天也就是5月21号的早上,这台心心念念的的电脑就放在了我的家门口,真的吹爆京东的配送速度。。。

我也第一时间进行了开箱。这个设计就很符合我的审美,我就好一口磨砂。

有一说一,这个屏幕是真的屌,3200×2000的分辨率,165Hz刷新率,色彩极好,还能180度翻折,还有触控。

不过说实话,我也不是很懂硬件,具体的硬件跑分啥的交给硬件区的博主吧,我就放个图给大家简单看下。

坦率的讲,AIPC在我的理解里其实很简单,软硬件两个部分:

软件:因为众所周知的原因,Windows的Copilot在国内是没法用的。所以至少需要提供一个基于你们厂家的优化版集成式AI来当你的智能体助理。

硬件:搭载英特尔的Ultra系列芯片。毕竟这里面塞了NPU,专为AI新增的处理单元,这个Ultra里塞了CPU+GPU(集显)+NPU三个单元,这是硬件最大的不同。
用通俗的话说就是,能让你低功耗、低要求的直接做一些AI推理加速,而不用每次都召唤4060这种高功耗的独显去跑。降低功耗、降低散热、降低重量,这几点还是非常非常重要的。毕竟,我要买的是一个能随身背着跟着我各地出差的笔记本,而不是一个台式机。

毕竟我自己的能力圈,还有整个AIPC的定位,最核心的自然还是那个单词:

AI。

所以,再深度用了三天之后,我决定来写一篇评测文章,好好聊聊他们的AI功能。

毕竟,这样才算对的起我花出去的Money,你说对吧。


 一. 联想小天 

因为一些众所周知的原因,国内的windows电脑,是没办法直接用微软的Copilot的,而且Windows Copilot也不是端侧大模型,全部是接的GPT4o云端推理,这个肯定是不行的。

而联想的YOGA Pro 16s AI元启,自带了一个AI的综合体,专属助理联想小天。

本质上,就是一个内置的AI应用,里面集成了大模型和和各种应用,是一个非常典型的智能体助理的定位。

也可以说,联想小天就是整个联想AIPC的核心,所以,先看看它的设计。

1. 本地与云端双模型

最核心的一点就是,联想小天可以切换本地和云端双模式。

非常容易理解。

本地个人模式,就是直接用内置在本地的端侧大模型用CPU去做推理。

云端模式,就是用云上的大模型去做推理。

云端的大模型参数,肯定是要比本地大很多的,但是我翻了很多资料,并没有看到具体的模型数据,只知道是联想自己的天禧大模型。

我用一个测试标杆弱智吧的问题,来让大家看看本地和云端的区别。

我自己测下来,体感上感觉端侧应该是一个几B左右能到GPT3.5左右水平的小模型,云端是一个GPT3.5~GPT4之间水平的大模型。

这个端侧模型是直接用CPU跑的,而且功耗很低,大模型常驻在后台,大概只吃4G左右的内存,在推理的时候,也不怎么吃CPU。

而且推理速度还是可以的。我录屏给大家感受一下。

其实坦率的讲,在很多的时候,比如写写合同,写写邮件,搞搞总结等等的场景下,约等于GPT3.5水平的端侧大模型,已经完全够用了。

然后在AIPC的场景下,其实我们很看跟系统的集成,一个优秀的智能体助理,其实应该是能调用系统的各项能力的。

联想小天集成了很多,但是我觉得还是初期,还不够。现在能达到的水平是,用自然语言调用一些联想系统的级别的应用,以及修改基本的设置项,比如看硬件配置,开启护眼模式,下APP等等。

但是其实在我的心中,一个优秀完美的智能体助理,应该具备一些复杂的系统级别的任务拆解以及调用能力。

比如我说:把我视频格式的默认应用全部调整成腾讯视频。理论上它可以直接在系统层面帮我调整完,而不是给我打开一个入口,还需要我自己去手动调整。

不过这种问题其实就是工程能力的迭代与优化了,给点时间,我觉得问题不大。

当然,还有我预期的更复杂的场景,比如我说:我想看今晚更新的最新的庆余年2。理论上他会打开腾讯视频,打开庆余年2,自动定位到今晚更新的集数上,但是这种需要跟腾讯视频这种第三方接口打通,我觉得...就...还是想一想就算了。

2. 本地知识库

这个可能是我最看重的AIPC的功能了。

举个例子,我朋友是做HR的,手上一堆公司内部规定和章程,她自己也天天记不住,也不敢扔到大模型上,每次都是别人问她以后她先查,如果有端侧大模型,其实就方便很多了。

再比如我,我自己有一份文件,里面都是我自己各种公司资料和各种密码,还有一堆比如我自己的敏感信息、身份证号、啥的,这个文件是我的命根子,要是泄露出去可能就炸了。

但是我经常需要跟别人签各种合同、写邮件、对接入库、发工资,还有一堆乱七八糟的琐事,需要极度频繁的用到这些信息。而AI其实可以大大的帮我减轻这些工作量的,比如直接跟我的信息和银行卡号,给对面发个打款邮件。但是我肯定不敢把这些信息传给ChatGPT或者Kimi之类的,所以每次我都是直接生成一个模板,然后我去手动填。

但是能端侧的话,那就不太一样了。

再比如我还有一个我自己的比较详细的介绍文档,里面有很多跟其他公司合作的一些核心数据,这个肯定不敢传云端的,但是我在端侧,就敢随便问答了。比如以前经常有人问我:方便简单给一下您的介绍吗?现在我就敢直接把这个文档扔进去然后直接生成。

这就是端侧大模型的魅力。无拘无束,自由自在。

你也可以点击个人知识库,把一些文件直接扔进来向量化处理。

但是坦率的讲,现在知识库的体验还不是特别的好,产品还需要迭代。

因为我自己理解的知识库,是把文件传上去之后,就可以不用管了,直接在对话里面提问题就行。

但是联想小天现在还需要先进知识库,勾选文件后进行提问,而且一次最多有3个文件的限制。

我觉得端侧模型这个方向肯定是没问题,但是这个产品的交互体验设计,还需要迭代优化。

3. 本地文件搜索

直接用大模型搜本地文件,还是一个挺刚需的功能的,因为有一说一,过往的文件搜索,实在太难用了,而且我自己的管理习惯其实不是很好,经常各种文件散落在各地,所以大模型加持下的AI搜索,还是一个我挺期待的功能的。

所以我直接在小天里面试了下,比如:找出我公司的营业执照文件

可以看到还是做了一些AI加持的,有语义理解了。我搜的虽然是公司营业执照,但是把银行证明、公司资料啥的都搜出来了,不过那个公司法还是略有一点抽象。

除了文件外,也能搜某个特定日期的。

在文本端还不错,但是一旦搜一些多模态的内容,比如图片、音频、视频,效果目前就还有点一般,经常会不准。

比如我让搜我电脑里的美女图片。

开什么玩笑= =我电脑里大把的,但是确实就没有搜出来。

4. 其他

除了上面的一些我比较关心的重点功能外,其他的跟AI的结合都是一些工具属性。

比如跟AIPPT合作,可以在电脑上直接调用AIPPT的能力,用文件直接生成大纲,然后挑选模板生成PPT。

比如有一个打电话的功能,可以跟一个拟人化的小天直接语音对话,说实话,音色和情绪居然意外的不错,聊起来还挺关心我。

在日常浏览各种文字的时候,选中后也会直接出小天的菜单,可以直接用大模型进行提问、润色、总结等等,这个还挺好用的。

总体来说,联想这个AIPC的智能体助理联想小天还是OK的,跟系统有一些结合,也能在端侧处理一些工作事务,但是因为模型本身还是个非多模态能力的模型,跟用GPT4o当基座的微软肯定还是比不了,但是这毕竟是中国,GPT4o那套也没法用。

大方向是对的,后续就看软件层面,模型和产品的优化了。这块我觉得很快。


 二. 本地部署的大模型 

除了用联想小天之外,一些专业玩家肯定也想自己部署一些大模型玩玩。

我们现在有了Ultra9,所以也可以给大家看一下,这个专为AI打造的CPU,跑本地大模型的速度,再对比一下4060跑的速度。

我直接下了LM studio,一个给小白用的专门拿来部署本地模型的产品。嗯,很适合我。毕竟专业的测试环境不是我这种非专业用户能搞的。所以就看看大众化的东西~

我直接装了2个最火的开源模型,千问1.5 7B、LlaMa3 8B。

先看Ultra9直接跑本地大模型的效果。我直接把我的4060显卡给禁用了。

现在我的电脑里已经用不了4060的显卡了。

直接在LM Studio上加载千问1.5 7B,用Ultra9推理。

千问的推理速度大概是这样的,我录了个屏,可以感受下。CPU的占用率直接干到了100%。

首字生成耗时5.30s,平均3.5Token/s。

跑LlaMa3,首字生成6.6s,平均每秒3.33Token/s。

比我之前的电脑快,之前的电脑每秒2个Token的蹦,这个从比例上来说提升了将近60%,但是绝对值太低了,也没有快很多。。

再对比一下联想小天的推理速度,只能说还是挺看优化的,自己家的产品果然体验还是好。

然后我再把我的4060启用回来,用显卡来推理看看效果。

首字生成耗时0.25s,平均每秒33Token

跑LlaMa3 8B,首字生成0.56s,平均每秒41Token

可以明显看到,显卡的推理速度,还是比CPU高太多太多了。

毕竟你要说算力,CPU+NPU的算力显然远远不如GPU, 但是NPU的功耗非常低。同等功耗情况下,那GPU的算力肯定是赶不上NPU的,所以配一个NPU, 用极低的功耗换取一个差不多的性能, 承担日常的AI计算,比如图片视频处理等等。
别说功耗没用,这毕竟是笔记本= =


 三. AI绘图 

联想自己也内置了一个AI绘图工具,AI画师。

基本是用的SD微调的那一套。

目前这个产品还比较简单,只有一个模型,有一些预设的风格,支持ControlNET进行一些绘图的可控性。

在生成速度方面,1:1的图,分辨率是512*512px,1张图在5s左右。

3:4的是576*768,一张图大概在9s左右。

但是对于一些不懂SD的小白来说,用起来还是非常方便的,生成的质量是OK的,不用搞WebUI那一套,说实话,那套东西,还是有一些学习成本的。

有一个很好玩的点是可以直接在这个产品上用十几张图本地就能训练一个LoRA模型。我就直接传了12张图上去,训了一个LoRA。

这个成本倒是挺低的,训练时间大概花了25分钟。

不过,对于一些专业玩家来说,我相信大家更关注的是SD在本地跑的时间。不过CPU的加强对SD基本没啥用,所以跑图基本还是会用独显来跑,这台笔记本是4060。

没有任何插件,经典的麦橘模型,一张512*768的图,花了15s。

就是一个正常的水平,毕竟这是一个笔记本。不是台式机。


 四. 写在最后 

其他就是一个正常的水平,毕竟这是一个笔记本。肯定不能跟台式机去比。

毕竟人一个4090的功耗,基本等于笔记本整机的功耗了。

但是在我做一些专业性的工作,比如C4D的渲染、剪映的抠像时,速度还是比之前高了很多,而且我看占用,基本全靠NPU。

除了我这次买的YOGA Pro 16s AI元启外,Book 9i和Air 14也是Ultra芯片,有NPU和联想小天,我自己是选的YOGA Pro 16s。

因为我对屏幕要求很高,还有便携重量等等,所以你们如果想买AIPC的话,也可以根据自己的需求来,不用直接抄,毕竟价格差距还挺大的。

在去年11月我写过的一篇关于AI手机的文章里,我是这么说的:

大模型,必须进终端,必须直接集成在手机、电脑、智能穿戴这些消费电子的设备终端里,它才能叫真正的AI

因为一个很关键的词,它叫,隐私

不要觉得那些大模型厂商都是慈善家,就像我前天发的文章说的一样,他们一定是会用大家的对话和数据进行训练的。

而说实话,我们本身有太多太多敏感的信息了,而这些敏感信息其实很多时候是能提高工作效率的。

就像我上面的例子,因为我自己开公司,就我一人,所以很多时候一些乱七八糟的文件和合同是得我自己处理的。我很想把我公司的所有信息、我的所有信息,比如公司的经营范围、银行卡号、密码、我的身份证号、住址等等,都扔给AI,这样就每次就可以直接生成一份完整的材料,而不是生成一个模板,我自己再去手改。

但是,你觉得,我敢把这些敏感信息,扔给任何一个AI吗?ChatGPT?Claude?文心一言?通义千问?你觉得我敢吗?换做你,你敢吗?

比如我的程序员朋友,手上一堆的代码规范文档,明明可以让AI进行辅助工作,但是苦于安全隐私问题,根本不敢扔进去。上一个敢扔进去的老哥,他们公司的源代码都已经可以直接在ChatGPT上调出来了。

所以,我们真的需要端侧模型,需要能在本地直接跑的,安全的能保护隐私的大模型,而且这个端侧模型,还能跟系统深度集成。

隐私+方便。

而这,就是我认为的AIPC,最大的价值。

我不知道,未来的AIPC,或者更挑明一点的说,未来国内的AIPC,发展速度和更新换代的速度有多快。

但是,我的期待还是非常非常高的。

这是趋势,不会变。

我先氪为敬。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询