一脸好奇,眼睛睁得大大的:“欧洲现在的情况和ai有什么联系呢?”
叶回舟耐心地解释道:“在科技发展方面,欧洲也存在类似问题。
欧洲很多国家盲目追随美国政策,比如在经济领域对一些国家加关税,毫无自己的主见。
在ai发展上,欧洲没有形成强大统一的发展战略,还不断消耗资源追随美国行动。
这就如同ai走入歧途。
我们必须思考,如何在科技发展中找准自己的方向,避免盲目跟风或过度追求表面数据。”
杨闲点头称是。
他端起咖啡,却没喝,只是看着杯中的液体说道:“是的。
在ai发展上,我们应回归本质,像人类大脑一样重视算法和真正的智能产生机制。
而非单纯追求高参数、大量数据和巨额算力投入。”
说着,杨闲的手机突然震动了一下。
他低头看了看,扶了扶眼镜,看着手机群说道:“有朋友留言说,清华大学那边有进展。
国内有团队正在做福建运算相关的通用平台研究。
视频发布不到十几个小时,就有人爆料青北大学相关团队公布了相关论文。
利用福建运算逻辑,通过显卡底层增强,让4090这种消费级显卡能完全运行r一满血大模型。
而且速度不比专业的a100算卡慢。
很多朋友问这是怎么回事,原理其实很简单。
显卡原本是提升显示效果的,通过gpu提供格栅化运算和浮点运算来实现成像。
以前超级计算用计算机、服务器、大型机甚至巨型机。
但到了ai大模型时代,人们发现gpu计算速度最快,不过它并非最适合。
于是英伟达推出了cuda平台,可理解为在显卡上进行计算的操作系统。
必须在这个平台上才能调用显卡算力,实现数据进入大模型训练等工作。
但它的工作原理也是调用底层芯片的浮点运算能力。
有没有更好的办法呢?当然有。
清华大学的论文解析了整个4090芯片底层,通过二进制语言编写运算代码,支持在上面部署大模型,提升了推理能力。
但要说这块卡真正的训练能力和a100相比,肯定比不上,毕竟算力有很大差距。
不过这个逻辑是可行的,放在任何显卡上,通过底层充分发挥浮点运算能力。
就能超越cuda平台对单个显卡性能的损失。
因为cuda是通用平台,配置在英伟达的显卡和算卡技术之上。
不可避免会对单个显卡性能有一定损失,其插件也是通用的,保证能用但效率不高。
记得22年还是23年,美国有个团队专门发文分析,cuda对英伟达算卡的利用率不到85%,大概82点几。
所以,如果把浮点运算提升到很高水平,超越cuda平台下英伟达算卡的表现没问题。
这是丁s开源论文里的重要问题,也是国内很多团队在这方面下功夫的原因。
通过机械语言直接调用底层浮点算力,适配多个国产卡,形成通用键,挖掘算力内部潜力。
这算是一个非常重要的进步,也是各个团队正在努力的方向,他们的成果非常了不起,是众多工程师共同努力的结果。”
叶回舟思考片刻后,微微皱眉说道:“可这对现在的ai研究界来说,可能是个巨大挑战。
毕竟目前大家都在朝着提高参数和扩大规模的方向发展。”
杨闲笑了笑,靠在椅背上,回应道:“没错,这就需要有人站出来打破常规。
就像马斯克在其他领域创新一样,如果他在ai领域也能实现突破,那才值得期待。
但现在他的g3给我的感觉,还是在旧框架里玩新花样。”
小胖子王涛拍了拍杨闲的肩膀,脸上露出灿烂的笑容:“不管怎样,能有这样深入的讨论已经很棒了。
希望未来能有更多关于ai正确发展方向的思考。”
叶回舟拍了拍王涛的手,点头说道:“没错,现在技术发展日新月异。
我们必须不断思考,才不会迷失在这些看似华丽的数据背后。”
杨闲接着说:“我们公司其实也能从中吸取经验。
在项目开发中,不能只看重表面的成果数字。
更要注重