在最近的CES大会上,Nvidia首席执行官黄仁勋发表了引人注目的声明,他表示Nvidia的AI芯片性能进步速度远快于摩尔定律。摩尔定律是由英特尔创始人戈登·摩尔于1965年提出的,预测计算机芯片上的晶体管数量每年翻一番,从而使芯片性能基本翻倍。

近年来,摩尔定律的进展速度有所放缓,但黄仁勋强调,Nvidia的最新数据中心超芯片在运行AI推理工作负载时比前一代快30倍以上。他指出,Nvidia能够在架构、芯片、系统、库和算法的各个层面进行创新,从而超越摩尔定律的限制。
黄仁勋还提到,目前存在三种活跃的AI扩展法则:预训练、后训练和测试时间计算。这些法则的结合将推动AI模型的进一步发展,降低推理成本。
他表示,Nvidia的H100芯片是希望训练AI模型的科技公司的首选,但随着推理需求的增加,科技公司对推理芯片的关注也在上升。黄仁勋强调,性能更高的芯片将长期降低AI推理的成本。
此外,黄仁勋还提到,Nvidia的AI芯片在过去十年中进步了1000倍,并且他并未看到这一进步停止的迹象。这意味着,未来的AI技术将会更加高效和经济。
总之,Nvidia在AI芯片领域的持续创新,不仅推动了自身的发展,也为整个AI行业的进步奠定了基础。对于我们来说,了解这些前沿科技动态,将有助于更好地把握未来的学习和职业发展方向。
以上内容均转载自互联网,不代表文坤科技立场,如遇侵权请联系管理员删除!
评论列表(1条)
哈哈哈哈