最近 5090的价格在往下掉,作为一个纯游戏党,有点蠢蠢欲动,但还是觉得这卡溢价有点狠。
当然,作为目前地表最强消费级显卡,它确实有资格这样溢价。
所以好奇一下,大家买 5090 的真实用途到底是啥?
游戏党:4K不拉满怎么玩?
AI生产力:本地跑大模型、视频生成
游戏 + AI生产力:我全都要
转手出售:4090战绩可查
刷抖音:欲买桂花同载酒,终不似,少年游
其他(欢迎留言分享骚操作)
最近 5090的价格在往下掉,作为一个纯游戏党,有点蠢蠢欲动,但还是觉得这卡溢价有点狠。
当然,作为目前地表最强消费级显卡,它确实有资格这样溢价。
所以好奇一下,大家买 5090 的真实用途到底是啥?
加一個(還是)買不起的選項 ![]()
问题是,32GB显存根本跑不了啥像样的LLM,不如去玩online API破限…
我记得5090不是有个供电口的问题么

同意。现在玩大模型,给api充个几十刀吊打其他所有
取暖 ![]()
当然是买前生产力买后爱奇艺了 ![]()
个人跑大模型5090可能还不如苹果?
没爆显存的情况下,他比苹果强,爆显存苹果比他强
问题是就算是72b,比起那些LLM API部署的模型的规模也就是小打小闹,除非你要聊一些过于逆天的玩意儿或者非常精神洁癖,不想和online LLM聊过于隐私的东西,不然本地部署LLM现阶段没有任何优势
画黄图
zs
怎么没有 itx大佬需要证明小机箱也能装下最强显卡 这个选项
这种消费级显卡根本训不了任何ai模型吧![]()
不能玩steam使我只能选择败家之眼
能用多久?能用2000B模型吗
楼主对这东西如数家珍,一个消费品我建议还是果断买了比较好,刚好开个amex刷sub,至少我看楼主买是值的,知道自己在买啥也不是无脑跟风
和模型种类和请求类别有关系,非常耐用,能用很久
网上找一些开源的纯前端,接到你的api上,就行
或者用claude code自己写各种功能,各种agent框架,很好玩
我个人感觉本地部署没啥意义,除非要微调。但是现在2025年了,私人微调真不如prompt有用。
问个白痴问题,要不是自己部署到服务器上的话跟用online版本有啥区别?
区别就是online版本的功能更强大,差距非常明显。
本地部署的优势其实有2个
第一个是去年gpt3.5时代,模型性能一般,llama2这种小规模开源模型性能更差,通过微调来改变这种小模型迎合个人的使用习惯是有意义的。所以买个gpu回来,不仅能本地部署,还能微调,一举两得。但是现在gpt4时代以后,模型的性能已经强很多了,这时候通过合理的prompt,或者接入本地rag等等,效果会比微调那些开源小模型多得多。
第二个就是隐私,本地部署没有隐私问题。但是第一没有严重的例子表明online模型对隐私有多大的实质性危害,第二是对隐私有需求的大多数是企业,他们都会用多gpu本地部署一个性能强的大模型进行推理,而不是用一个gpu部署一个30B以下的小模型。并且我认为“隐私”其实是数码爱好者们为自己捣鼓大模型创造出的一个需求。
上面提到了,个人的本地大模型一年多以前还有意义,但是这股风是最近deepseek开源之后b站各大数码博主宣传才吹起来的。这只能说明更多人开始玩AI了,从本地部署开始玩起。但真要为了本地部署而专门买gpu,我感觉没什么意义。
也有一波是为了发文章