← 返回笔记列表

发布于

经过了两周的工作时间闲余时间的研究和尝试,感觉基本上已经配备好了后续持续使用DeepSeek(当我说DeepSeek的时候,有时候是说的DeepSeek,有的时候是说的LLM大语言模型,有的时候说的是AI人工智能)的相关“装备”,差不多该停止工具层面的折腾,开始静下心来仔细研究DeepSeek相关的更深入知识,以及在实践中不断发挥DeepSeek的作用。在进入下一步工作之前,我想对前一段时间的折腾成果做一个总结。

基础工具:Chrome浏览器

使用大模型的初级和基础工具,也是工具中的不二之选,没有什么可以多说的了。可以体验和使用各家大模型。

移动客户端:DeepSeek/豆包/Kimi/通义/元宝

AI产业前期看不出来哪家的水平高,为了不错过最好用的那个大模型,只能把几个比较流行的大模型APP都先安装上再说。下面对各家的大模型的使用体验做一个对比说明。 DeepSeek:目前来说,最让人印象深刻的还是DeepSeek,尤其是推理模型的回答质量很高,未来发展好的话,说不定DeepSeek能实现“产品/品牌即品类”的心智,只是现阶段官方服务不稳定是个大坑,每次只问一个问题就废了,所以目前主要是通过Cherry Studio调用各家云厂商部署的DeepSeek,官方APP基本弃用了,但随着这波流量过后以及官方服务能力提升,未来应该可以作为主力大模型APP使用。 豆包:各家大模型综合体验最好的还是豆包,首先是服务稳定,对于基本问题的回答尚可,然后各种功能齐全,客户体验做得还是可以的。目前除了直接问答,我用的的比较多的还有AI生图功能,虽然没有想象中那么完美,但是基本可以满足我码字配图的需求,未来还是可以有所期待的。 Kimi:Kimi应该是AI时代崛起的一个新秀,能不能存活下来还不确定,但是可以持续观察,目前Kimi也有推理模式,效果初步看不如DeepSeek-R1,但也还可以使用了,只是在偶尔对比着用一下或者在需要联网推理模型而DeepSeek又拒绝服务的时候用一下。 通义:中规中矩的,没有什么特别的地方,使用体验略逊于豆包,也没有推理能力,基本没怎么用。 元宝:不管是用户体验还是大模型本身,感觉比通义还差,本来都已经卸载了的,但是看它连接了DeepSeek-R1,可以作为联网推理模型的备用,就又给装回来了。 Others:其他的就没有装到手机里面了。大厂中主要是百度文心一言没有安装,主要是我觉得百度这个公司价值观有点问题,做产品不是很关注用户体验,直接放弃。

桌面客户端:豆包/Kimi/WPS灵犀/汪仔

前两个是自己主动安装的,后两个是被捆绑安装的。 豆包:本来桌面端用浏览器就够了,但是专门的客户端可能是未来的一个发展方向,所以就装了一个桌面端豆包进行了体验。整体感觉还不错,有三个功能我感觉很有用,一是更方便的用豆包就不说了,然后第二个是可以直接快捷键调出搜索框问问题,这个功能未来说不定是标配,最后是可以在其他软件弹出取词工具栏,不管是AI搜索还是查单词都比较好用。唯一的缺点是占用内存太大了,1.2G起步,常规就是1.5G,比Chrome还丧心病狂,当然了,毕竟人家就是在chromium上面二次开发的,本来Chrome就够丧心病狂的,它又加了这么多功能,更加丧心病狂就在情理之中了。如果豆包桌面客户端的浏览器体验能够和Chrome一样,我还可以直接弃用Chrome,直接用豆包客户端当做浏览器用,但是实际上豆包桌面客户端作为浏览器的使用体验还不如Chrome,Chrome就只能继续用着。但是两个丧心病狂的内存大户我养不起,豆包桌面客户端就只能暂时先观察着,不过感觉还是很可期的。 Kimi:毕竟是初创公司,确实资源有限,又要模型先进,又要产品的用户体验好,还有花钱投流,我觉得确实有点难为他,这样的客户端其实可以不要,用浏览器更好。 WPS灵犀:WPS捆绑安装,但是接入了DeepSeek-R1,所以感觉也可以用用看,持续观察着吧。WPS用了很久,我感觉这家公司的产品经理也称得上是优秀,但总是差点意思,还是不够卓越,所以对它暂时也没有太大期望。 汪仔:搜狗输入捆绑安装,背后用的还是腾讯混元,无论是大模型和用户界面,我连用的动力都没有,实在不值一提,要不是离不开搜狗输入法,就直接卸载了。

桌面聚合客户端:Cherry Studio/Chatbox

个人感觉Chatbox没有Cherry Studio好用,所以重点用了Cherry Studio,但Chatbox有移动客户端,所以也在用,但不详细说明。这里只说Cherry Studio,网上虽然也有人有些不屑地说它是“套壳”客户端,话也不错,但也不能小看套壳的重要之处和发展潜力。 这种第三方“套壳”客户端本身并不提供大模型服务,它只是提供调用大模型服务的用户界面,最终使用大模型需要各个大模型服务提供商提供的API才可以接入大模型,所以才被人说是套壳客户端。但是这种客户端胜在全面和方便,通过它可以调用所有云服务提供商和本地部署的大模型,非常方便好用,至少可以帮我管理所有大模型云服务提供商的API,目前已经成为我使用大模型的主要工具。 除了调用大模型对话,Cherry Studio目前还可以使用快捷键快速调出搜索框向AI提问,还可以搭配嵌入模型搭建个人知识库,还可以同步知识库向量,虽然现在用起来总体上感觉还不是很完美,但是后续随着开发者的不断迭代更新,应该会有更多更好用的功能出现,比如上面提到的豆包桌面客户端的取词工具,可以进行全局翻译或者搜索等等。

大语言模型本地部署工具: LM Studio

首先说明,我不推荐个人在本地部署大语言模型,除非是土豪,因为本地算力有限,难以发挥大语言模型的真正实力,还是得云服务上提供的云算力才是王道。 我个人用上LM Studio最开始只是为了要建个知识库,所以也只用它运行了一个嵌入模型,而没有运行大家常用的语言模型,虽然效果也不是很差,但确实有点慢,而且一直后台运行大模型也不现实。最终也没有折腾其他模型,只是保证自己知道怎么本地部署模型就好。

大语言模型云服务提供商:DeepSeek/OpenRouter/硅基流动/腾讯云/火山方舟/阿里云百炼/华为云Modelarts

感觉自己在工具侧面太能折腾了,收集API就像以前搜集电子书一样,必须要全,如果不是没有国外支付手段,OpenAI也要搞一些来耍耍。 DeepSeek:DeepSeek官方的API服务,第一个开通的大模型云服务提供商API。当时是为了配合Obsidian Copilot用的,希望能在笔记软件里集成AI功能(说到Obsidian时再具体展开,但是输出效果跟官网服务一样卡,基本就没怎么用了,充了10块钱到现在还有9块8。 OpenRouter:国外大模型服务聚合平台,因为用不了OpenAI的API,享受不到最先进大模型的直接服务,只能退而求其次选用了这种聚合平台的服务了。它可以间接使用国外包括GPT、Claude、Gemini等模型,可以让我持续对比各家模型的实力。但不得不说GPT确实贵,问了一两个问题,充的10美元就只剩下9.8美元了。 硅基流动:国内大模型服务聚合平台,主要是薅羊毛的,其次是全面好用。平台送了14块钱,我自己又充了10块钱,目前还剩下23块9。 腾讯云:最初是因为使用Obsidian需要存储服务,就注册了腾讯云账号,开通了腾讯云的对象存储服务,然后顺带就体验了一下腾讯混元模型,发现它有点烂就果断关闭了。似乎放弃混元模型不到一天,腾讯云就上线了DeepSeek模型的服务,限期免费,就又赶紧用起来了。因为还在免费期,所以目前是我在Cherry Studio里面主力使用的模型,目前在大模型这块还没有扣过钱。 火山方舟:云厂商中大模型服务做的最好用最全面的,也是扣我钱最多的一个。本来只是为了收集一下豆包模型的API,但是发现火山方舟还提供了其他的各种大模型服务,包括DeepSeek、Kimi等,而且还有模型微调、应用零代码开发等功能,长期来看要在大模型方面深入实践的话,可以用火山方舟提供的模型服务。 目前已经充了20块钱,现在只剩下5块了,之所以会这样,是因为在Cherry Studio里面调用了它的嵌入模型处理文件,一不小心就消耗了2000万的token(大约2000万字),扣了15块钱,最后还运行出错,生成的向量文件我用感觉也不太行,就删除了,所以15块纯打水漂。虽然如此,这番折腾也让我搞清楚了大模型搭建知识库的基本逻辑和运行方式,知道后面从哪方面着手才好建立真正好用的知识库。 阿里百炼/华为云Modelarts:这俩都是因为在云服务商中份额较高,再加上有活动,所以顺带注册了一下,集齐“三颗龙珠”。 Others:三大运营商也提供了大模型的云服务,但是懒得用了,主要是他们在主业上吃相太难看(对好糊弄的人就糊弄,对不好糊弄的人服务也很好),副业应该对普通消费者也不会怎么样。 2月这波热潮过后,大模型要深入使用下去,估计成本也是不低的,初步梳理了一下各家大模型的价格,预计过了腾讯云的免费期,就开始消耗各家的赠送额度,然后再看价格,谁家便宜用谁家,目前基本火山方舟单价最低,腾讯云最贵(也可能是我不会查它的价格)。

提供商模型上下文长度最大输出长度百万tokens输入价格百万tokens输出价格
DeepSeekdeepseek-reasoner64K8K¥4¥16
DeepSeekdeepseek-chat64K8K¥2¥8
OpenRouteropenai/o1200K100K$15$60
OpenRouteropenai/gpt-4o128K16K$2.5$10
硅基流动DeepSeek-R164K¥4¥16
硅基流动DeepSeek-V364K¥2¥8
腾讯云hunyuan-turbo¥15¥50
腾讯云hunyuan-large¥4¥12
腾讯云DeepSeek-R164K¥26¥75
腾讯云DeepSeek-V364K¥11.5¥17
火山方舟DeepSeek-R164K¥2¥8
火山方舟DeepSeek-V364K¥1¥4

Obsidian

最后要重磅介绍笔记软件Obsidian,它虽然跟AI没有直接的关系,但用了差不多两周多一点之后,感觉已经可以成为我主力使用的笔记软件了,而笔记软件应该是目前能有效发挥AI作用的最清晰的应用领域了吧。 起初:起初,我只是觉得wolai每年80块的笔记费用似乎不太值得,因为用的场景不是很多。然后正好在微信上刷到了Obsidian的介绍,最终被Obsidian本地存储+插件扩展的理念打动,于是果断放弃只有联网才能使用的wolai,投入了Obsidian的怀抱。 导入:用了Obsidian之后,我开始思考怎么汇总我以前保存的所有笔记,形成个人专属的知识库。wolai格局还比较高,能够很顺利的批量导出所有笔记然后导入Obsidian;有道云笔记从一开始就很猥琐,笔记数据只进不出,只能单篇导出word格式再导入,这就只能后面紧有用的到了;但没想到印象笔记当初可以很顺利的迁移到有道云笔记,现在也搞了个加密格式,吃相也变得难看起来,不过还好可以导出HTML格式也能接受,也算是顺利;最后,想起来我在百度手记和百度笔记两个产品上还有点数据,因为不是很多,但是很重要,所以我又去试了试看有没有可能一篇一篇导出,结果它吃相比有道云笔记还难看,根本就没有导出功能,只能一页一页截图,至此,我对百度这个公司的耐心全部用完了,这也是为什么我连文心一言用都懒得一用的原因之一,就不说它过往的那些黑历史了。不管怎样,最终初步有个小库的感觉了。 同步:多终端同步使用是笔记软件的精髓,没有同步就没有云笔记,只是一个本地的编辑器,知识库的作用就大打折扣。所以本地笔记小库有了一点东西之后,就要考虑怎么同步笔记了。官方的同步功能要4美元一个月,还只有1G的空间,性价比不高,还不如wolai。经过一番搜索和折腾,中间尝试过Remotely Save插件+坚果云webdav方案,但是试用效果不好,付费成本感觉偏高,最终综合考虑下来还是选定了Remotely Save插件+腾讯云COS(对象存储)的方案,插件免费,腾讯云COS一个月10G容量8毛钱还算便宜,主要是流量费用5毛钱1G略贵,但总体应该成本可控。 AI:解决了Obsidian的同步功能之后,基本就是一款好用的笔记软件了,但是控制不住折腾的心思,就开始研究在Obsidian里面怎么使用AI功能了。正好那几天DeepSeek闹得沸沸扬扬,就直接开通了DeepSeek开放平台,申请了API充了10块钱使用,然后才延展到前面提到的各种大模型云服务提供商里面去。可能也是Copilot这个AI插件不成熟,最终使用下来的效果个人感觉很不好,不管是直接和AI对话,还是知识库建设,效果都远不如在Cherry Studio里面使用得流畅,这最终也迫使我放弃了直接在Obsidian里面使用AI功能。但是通过对Obsidian Copilot这个插件的折腾,我也基本搞清楚了大模型API的使用方式和嵌入模型以及知识库的运行方式。

结语

其实还没想好折腾了这么多工具后面要怎么用,只是有些初步的方向,比如知识库、即时咨询辅助、日常信息收集、确定性问题咨询、提供及时信息、辅助个人读书码字等,总体还是围绕提高工作效率和提升个人能力两个大的方面展开,后面准备深入想想再总结一下。

兴之所志

2025年2月18日