ai 相关价格

on-prem free

cloud

https://openai.com/api/pricing/

gpt-4o
$1.25 / 1M cached input tokens
$2.50 / 1M input tokens
$10.00 / 1M output tokens

deepseek-chat
$0.07 / 1M cached input tokens
$0.27 / 1M input tokens
$1.1 / 1M output tokens

o1
$7.50 / 1M cached input tokens
$15.00 / 1M input tokens
$60.00 / 1M output tokens

o3-mini 2025-01-31
$0.55 / 1M cached input tokens
$1.10 / 1M input tokens
$4.40 / 1M output tokens

deepseek-reasoner
$0.14 / 1M cached input tokens
$0.55 / 1M input tokens
$2.19 / 1M output tokens

投入
https://tracxn.com/d/companies/openai/__kElhSG7uVGeFk1i71Co9-nwFtmtyMVT7f-YHMn4TFBg

https://openai.com/index/announcing-the-stargate-project/
Stargate Project $500b

The initial equity funders in Stargate are SoftBank, OpenAI, Oracle, and MGX. SoftBank and OpenAI are the lead partners for Stargate, with SoftBank having financial responsibility and OpenAI having operational responsibility. Masayoshi Son will be the chairman.

meta $60-65B

支持开源

下一步华为那边把910C良率提升了,DeepSeek AI使用成本更加碾压世界。

EUV光刻机要几亿美金一台,DUV光刻机只要几百万美金一台,华为用DUV多次曝光生产910C绝对是个创举。

2 个赞

910c跟deepseek ai成本的关系是啥?

推理用的910c. 其实刚开始,910c 去年下半年才出来,产能还在提升中,后面扩容基本都会是910c了。

预计接下来DeepSeek新版本的训练也要换到910c了,美国继续加大制裁,正好间接帮华为扩大份额。后面的Sputnik时刻轮到华为来展示了。

不太信。。

为什么cashed比input要贵啊

:yaoming:原來Anthropi/c拿了這麼多錢,
之前還在哭窮

DeepSeek does not “do for $6M what cost US AI companies billions”. I can only speak for Anthropic, but Claude 3.5 Sonnet is a mid-sized model that cost a few $10M’s to train (I won’t give an exact number). Also, 3.5 Sonnet was not trained in any way that involved a larger or more expensive model (contrary to some rumors).

910c可以训练的,硬件指标是可以对标H200,超过H100的。只是没CUDA,得用华为的昇思开源框架。美帝的制裁帮了华为大忙,现在在国内已经有30%份额了,还在进一步扩大中。

怎么可能,这得是天顶星科技了 这技术绝对遥遥领先nvidia :yaoming:
做推理我是信的

硬件指标不代表实际效果。AMD的卡硬件指标也不差。实际效果还是要看AI框架层面的优化。910c + 昇思,就算实际效果不及H200,超过H800或者H100没问题的。

现在问题主要是华为的产能问题,去年媒体报道DUV多次曝光来做7 nm制程的良率是20%,这个改进了以后肯定又是一枚重磅炸弹,成本杀手,最快今年也许就出来又一个突破了。

1 个赞

20年有幸用过910,当时是比V100平均快10-20%的,至于现在的910b/c,就不知道了,只能说差距应该没那么大

1 个赞

deepseek说910c 推理大概达到60%的h100 训练就更别提了
硬件指标也不可能真的能达到h100/h200,不然nvidia这么多年的架构和tsmc的工艺不知道干啥去了
或者hw有天顶星科技

2 个赞

v100和h100差很远很远很远

整理数据搞错了

openai是时间顺序
deepseek是价格顺序

:pray:

N+1都不容易,N+2能搞出来那真是黑科技 :yaoming:

1 个赞

TSMC今年在高雄的厂是2nm, 华为是7nm, 感受一下 :yaoming:
进度还超前了

确实

不知道谁吃了差价

其实对于 R1 可以关注一下第三方托管商的价格,可能更能反映出真实推导成本(官方 API 加粗了)

提供商 $/1M Input Tokens $/1M Output Tokens
Featherless $6.5 $8
Avian.io $6.9 $6.9
Together $7 $7
Fireworks $8 $8
DeepSeek $0.55 $2.19
Nebius $0.8 $2.4
DeepInfra $0.85 $2.5
Perplexity :warning: $1 $5

来源:

当然 R1 才刚出没多久,第三方托管商架构可能不完善(OpenRouter 上好些提供商的生成速度是个位数 :yaoming:),以后价格应该还会进一步下降


Edit: Perplexity 的 sonar reasoning 生成速度有点异常快了,感觉是个蒸馏。目前并没有实锤,但先加个 :warning:。如果真的是个 llama distill,和完整模型一起比价格没有意义

1 个赞

确实 可能政府补贴

其实只要华为7 nm良率能达到50%以上,2 nm又会变成小丑。因为DUV光刻机几百万美金一台,EUV光刻机几亿美金一台。