标题摘要内容
范丛明:建议脚踏实地开发AI通用大模型,不要再出吊打美国的言论
来源: | 作者:AI 生 | 发布时间: 2025-01-17 | 53 次浏览 | 分享到:

欢迎扫码进“AIIA人工智能产业研究部交流群”,及时获取最新产业调研成果。

进群方式1:扫码二维码进群

进群方式2: 加微信进群13719254611(要进群加该微信)


深圳市人工智能产业协会执行会长范丛明表示,20241227DeepSeek发布的V3模型,国内出现了大量类似“杭州大模型公司震惊美国AI圈;中国发布大模型性能吊打美国开源大模型;一城之力反超美国巨头们;DeepSeek全面超越!美国AI霸主地位岌岌可危!”等言论。我欣喜于中国企业突破的同时,更看到这些对中国AI发展盲目自信的言论正在中国不断衍生。

首先,AI大模型的能力发展是与数据和算力息息相关的,以少量数据少量计算超越在数据、算力、甚至研发投入遥遥领先的公司产品只能是神话传说,以美国OpenAIGPT-4能力看,不仅在文本生成、视频生成、数学推理等方面,更在生物、医疗、物理、天文、地理、语音语种等人类生活和工作相关的各个领域都表现出相当的实力,这些都需要海量的数据投喂和强大的算力训练。

其次,实践证明,AI大模型训练的数据量越大,越能表现类人智能。GPT-4的模型参数数量约为1.8万亿,训练数据量达到了13万亿,202412月,OpenAI连续12天开线上发布会,涉及技术、产品形态、商业模式和产业生态等。如果OpenAi构建是完整的人类大脑,DeepSeek以少量数据少量时间训练应该是小小脑,这是DeepSeek在资金不足和数据有限下的最优选择,也是无奈的选择。我不认为OpenAi的科研人员更笨,不懂得构建少量数据少量训练达到DeepSeek能力。我呼吁中国AI界一定要老老实实找更大规模的可训练数据,用更强大的智能算力来训练我们的模型,这样才能打造更强大的AI通用大模型,少看点国外AI大模型排名,AI大模型是不是考试大模型,更不能为了排名专门去优化没有太大用处考试能力。不要再出中国AI吊打美国的言论,这样我们AI产业才能走的远,才能与美国竞争。