微信扫码
与创始人交个朋友
我要投稿
今天我们来聊一个话题:如何免费用Qwen2来辅助翻译与数据分析。
从前有一种刻板印象,尤其是去年,大模型里好用的基本上都是闭源模型。所以很多人认为开源的肯定干不过闭源的。但是我们现在知道了,这个事不一定。前些日子从LAMA3的发布,你就可以从中感受到现在开源模型的威力。它改变了人们对开源模型的印象。
那么现在,Qwen2出来了,它号称是能够超越LAMA3。实际上它出的是一个系列,这里面从非常小的都不到10亿参数,一直到比较大的,现在是70多亿。现在的Qwen2系列模型规模大,最高可以到达72B,这就是720亿参数。多语言能力强,然后在编程、数学等领域提升非常明显,支持超长上下文。这一点我觉得它是比LAMA3现在做得要好。
我们在这里找到一张发布会的时候的图,关于Qwen2这个72B和LAMA3 70B以及Mixtral-8x22b模型之间的一个对比。我们在这里可以看到,基本上是一个碾压的态势。你说每一项都超出很多,那倒也不是,有的比分其实也是比较接近的。
我们先来看一看本地运行。这里面我们选一个小一点的模型,也就是Qwen2 8B模型。这里我们使用的是Olama,直接ollama run qwen2。这里它开始从上面去下载这样的模型,等一会儿,然后下载好了,下面你就可以直接跟它对话。
先让他来写一个贪吃蛇游戏试一试,听说他会26国语言,我们来试一下多语言交流:Please use Python帮我写一段贪吃蛇ゲーム code
我们可以看到他对多语言的混合使用能够正常的理解,那么输出完之后,它还告诉你怎么安装使用。
那么现在我先按照它的要求,把“Pygame”给它装上。之后我们把代码贴到“VS Code”里面,然后咱们执行。这是出来的界面。
让他改了三遍才正常运行,代替人工写代码这块还是有待提高。
如果我们使用希望使用72B版本,那么一般的个人电脑本地就跑不起来了。怎么办?好在我看到了热心网友说的,可以通过一个https://siliconflow.cn/的网站,来免费体验API。对于白嫖我从来都是来者不拒~~
我们之前介绍过的OpenRouter以及Together AI这样的多种模型的集成服务。你拥有它一个API Key,你就可以调用各种的模型,Siliconflow感觉也差不多,你需要先注册一个账户,注册过程咱们就从略了。注册完之后,你会发现,它还赠送给你42块钱。
这里头它还给你一些快速上手的介绍,你感兴趣的话,可以浏览一下。
那么下面咱们来试试使用Qwen2 72B作为翻译大模型的效果。
先创建一个api key
我们这里调用一个浏览器的插件沉浸式翻译。设置的方式是这样的:
这里不展开讲翻译插件的具体使用,懂得都懂,不懂自己百度一下。
我们打开一个英文的网页
点击翻译按钮,中文就出来了,还是中英文对照,非常的Nice
以上这是翻译插件的具体应用,下面我们来看看如何使用Qwen2进行数据分析。这里使用Open Interpreter+Qwen2做演示。
之前文章介绍过Open Interpreter这里不再赘述。使用siliconflow的key和接口地址,指定模型启动
执行完了,说这里说成功的提取到了文件的数据。并绘制了一个K线图文件保存在当前目录下。
这是演示部分,来看看我们一共花了多少钱,原来给了我们42块钱,现在剩下41.70元
实际上你可以看到,你这样的应用,不管是翻译,不管是我们现在进行数据分析,赠金这42块,足够你忙活一阵的。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-08-21
2024-04-11
2024-07-09
2024-08-13
2024-07-18
2024-10-25
2024-07-01
2024-06-17