加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

和交大高净值研究院的同学一起和英伟达的工程师交流

(2025-02-20 17:06:57)
标签:

调研

分类: 但斌作品
2025年2月19日:
@但斌:和交大高净值研究院的同学一起和英伟达的工程师交流,给同学们一些问题,以便更好的交流:

英伟达:2025是AI应用继续普及推广的一年,目前全球人均拥有算力只有0.5 Tops,处于严重短缺状态(一辆自动驾驶汽车需要至少500Tops),AI应用的普及需要大量的算力资源。而模型的降本(效率不断快速提升)速度正在加快,从24年9月的o1模型到25年1月的Deepseek成本下降了27倍,到2月的Gemini 2.0成本下降了100倍。模型成本下降,效率不断提升,英伟达芯片的价值量也在跟着不断提升。而在格局上,英伟达芯片因其“通用性”和“强大的集群能力”,越多人使用AI的不同应用,越需要更多卡集合一起工作,才能有越高的使用效率和速度,带来越低的成本。随着AI的应用普及,英伟达推理芯片的优势会越大。英伟达的风险在于短期供应链或下游数据中心建设,跟不上英伟达的创新节奏,要么芯片生产不足,要么产品囤仓库等数据中心建设。

推荐问题:英伟达如何处理短期供应链和下游数据中心建设跟不上英伟达创新节奏的风险?前沿大模型的训练,还会再继续做大加大参数,如果不用,是不是10万卡集群了之后,就没有必要再扩大集群规模了,而芯片需求中推理需求的占比,会从现在的40%快速提高?在Deepseek出来之后,售往中国的H20的芯片会不会被禁,如果不会,中国将需要大量的H20芯片,是否加大生产?和交大高净值研究院的同学一起和英伟达的工程师交流

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有