Suleyman认为,Sam Altman最近说过他们没有训练 GPT-5,可能没有说实话。(Come on. I don’t know. I think it’s better that we’re all just straight about it.)
他希望所有拥有大规模算力的公司都能尽可能的保持透明,这也是他们披露自己拥有的计算总量的原因。
他们正在训练比GPT-4更大的模型。目前,他们有6000台H100正在训练模型。
到12月,22,000个H100全面投入运营。从现在开始,每个月都会增加1000到2000台H100。
他认为谷歌DeepMind也应该做同样的事情,应该披露Gemini接受了多少FLOPS训练。 AI训练成本将如何变化
从算力成本的角度来看,未来AI训练的规模不可能达到训练某个模型需要100亿美元的成本,除非真的有人会花3年时间去训练一个模型,因为堆叠越多算力去训练一个越大的模型,需要的时间也会更长。
虽然花的成本越高,可能能带来更强的能力,但是这不是一个没有上限的数学问题,需要考虑很多实际情况的限制。
但是因为算力成本随着芯片算力的迭代在不断下降,所以未来可能会出现训练某个模型的成本相当于在2022年花费了100亿美元来训练。
但是因为芯片算力会以2-3倍的效率增长,所以到时候训练一个这样规模的成本会远远小于现在看起来的成本。