手机浏览 RSS 2.0 订阅 膘叔的简单人生 , 腾讯云RDS购买 | 超便宜的Vultr , 注册 | 登陆

测试了maxkb后,还是放弃了

首页 > Linux >

 在我的M9的机器上安装了MAXKB。用了ollama2的模型。

随便跑了一点内容,最终还是放弃了
记录一下当时的步骤
1、增加了知识库,想尝试爬我的博客(还没有用meilisearch)。结果直接把网站爬崩了。。。。后来是指定页面进行抓取才相对好一点。但明明设置了class,抓的内容还是乱七八槽 
2、下载了ollama13b的模型
3、开始建立应用,选择这个模型 :一开始搜索,机器CPU100%,内存消耗8G,1分钟后,居然没搜索到任何东西。。。。
4、切换成ollama:chinese的模型 ,也是100%的CPU。。。chinese是7b,也消耗差不多8G内存
5、换成最基础的,同样100%CPU,温度从50多度升到80多度。消耗4G多内存
 
发现这种本地知识库,如果没有GPU,还真是别玩了啊。。。玩不动。所以,最终折腾完后,删除了
 



本站采用创作共享版权协议, 要求署名、非商业和保持一致. 本站欢迎任何非商业应用的转载, 但须注明出自"易栈网-膘叔", 保留原始链接, 此外还必须标注原文标题和链接.

« 上一篇 | 下一篇 »

发表评论

评论内容 (必填):