可以本地跑llm demo的desktop

也有差不多的想法,想给一些小说写个同人文

我用的3090 + ollama 跑的q8 llama3 8b和q8 gemma2 9b

超过8g ram的苹果 你不如买块2手的12g显存的卡

我有同样的问题,想用llm分析 statement 归类到beancount account。结果一言难尽。

@jefferyz 好像是beancount的忠实用户
Beancount 技术交流贴 他们在这个帖子讨论

但你这个也不适合本地跑,调好prompt应该不难(

如果可以用联网的copilot是不是没必要本地搭一个呢

可以试试LM Studio?感觉还挺傻瓜式的,也支持Metal和CUDA。还可以create local server

没必要,水平一般

1 个赞

GPT-4o 的结果非常好,想试试线下的,就算 llama3 70b 都不太满意。

最后还是让gpt给我写code再自己调吧。

LMAO bro you serious?

你也用各种云产品吧,也不是没有怕安全性而不用吧
选个不拿你的数据去train model的 plan/api 就行

我手里一套4090x2,一套m1 ultra

只要模型大于4090显存就会被m1 ultra暴打

对于大多数人来说,是像大佬所说的

超显存 CPU 肯定更快啊,跟是不是 m1 有什么关系 :yaoming:

2 个赞

lz要求是挂壁的话,m1我觉得就是only choice

M1是unified memory… 内存现存共享