周鸿祎:中美AI差距主要是这一点 一两年能追上
周鸿祎受访 摄影:陈青青
2月15日,人工智能ChatGPT母公司OpenAI公布了一种新的人工智能系统Sora,该系统可以根据用户的文本提示创建逼真的视频,引发全球关注与讨论。360创始人周鸿祎16日发文说,OpenAI手里应该还藏着一些“秘密武器”,这样看来中国跟美国的AI还存在一些差距。他同时表示,科技竞争最终比拼的是人才密度和行业积累。AI不一定那么快颠覆所有行业,但它能激发更多人的创作力。
“我一直坚持这么说,看到差距才知道怎么迎头赶上。承认差距不是坏事,认为我们所有都遥遥领先了,那就(不行了)。周鸿祎23日在对《环球时报》进一步阐述称,自己认为中国和美国在人工智能上的差距主要在“确定技术方向”上。
“谁选择到了正确的方向,正确的架构,全世界都会跟着这个架构。”他解释称,“比如,日本人当时做电动车,选的是氢架构,丰田走的是混动架构,而特斯拉走的是纯电池架构。我们实际上是坚定追随特斯拉的架构,比亚迪率先学习,再通过不断发展,现在比亚迪在销量上是有机会超越特斯拉的。”
“通过这些例子,我是想说明,一旦技术方向确定了,中国公司的学习能力都很快。尤其当同行发布开源的东西、公开的论文后,中国团队去跟进,不是一个很难的问题。”他表示。
周鸿祎对《环球时报》记者表示,他对目前中美在AI上的差距并不悲观,毕竟Transformer模型、Sora等本质上都是软件,这种差距是可以在一到两年左右追上的。此外,也不需要非得等到全面赶上GPT4或Sora才能发展应用。
在谈及Sora对世界的影响和应用前景时,周鸿祎表示,Sora最让他感到震撼的一点是,产生视频只是它的一个“副产品”——在产生视频的过程中,Sora需要学习很多视频材料,它学到的不仅是如何绘出图案,更重要的是,它必须了解到现实世界很多元素间的互动关系。
“有人跟我争论,画图软件也能画出一只狗在雪地上,但问题是,画出静止的狗和雪不需要掌握常识,只要照着图像画就可以。但要想呈现出狗在雪地上撒欢,雪还在掉落,是松软的性质,没有对现实世界常识的学习和积累是做不到的。”他解释道。
“这意味着Sora让人离AGI(通用人工智能)又近了一步。”周鸿祎对《环球时报》表示,“GPT实际上解决了机器和人之间相互理解和交互的问题,这是攻克了第一个难关,但它对这个世界的很多规律并不知道:比如我们要让一个机器人去冰箱里拿西红柿再炒鸡蛋,训练起来会很难,因为它需要知道西红柿是摔不破的,而鸡蛋一摔就破,它还要知道要怎么磕鸡蛋,它必须像人类一样见过,才能知道。我认为这可能是OpenAI在研发Sora时无意中做到的。它实际上通过这种训练方法,让机器能够和世界互动。”
他认为,这意味着Sora未来可能应用于机器人和无人驾驶领域,因为它对真实世界的交互有了感知的能力。
在谈及中国AI在2024年的发展前景时,周鸿祎对《环球时报》表示,2024年应该是中国AI的“应用之年”,相信今年在许多企业的垂直领域,大模型将大有可为。“大模型未来应该要产生一场工业革命,大模型必须跟随企业进入百行千业,和很多企业的业务流程和产品功能相结合。”
“比如,我们现在要做一个能超过GPT4的通用的大模型可能比较难,但GPT4是‘啥都懂,但不专’。如果我们能在某一个业务领域,有独特的业务数据,在一个垂直领域把大模型训练得很好,而且把大模型和企业很多业务工具结合在一起,这样的大模型就不仅有脑子,还有独特的知识,甚至手和脚了。”他表示,中国在一些垂直领域的大模型超过GPT4,是完全有可能的。
有观点认为,中国大模型的开发需要对内容安全和监管投入巨大精力,这是目前中国AI发展的一大挑战。对此,周鸿祎认为,全世界的大模型都面临安全挑战,尤其是如何保证大模型可信、可控、可靠的问题。
“大模型可以成为好人的帮手,也可以成为坏人的帮手。比如过去你得懂编程才能做网络攻击,现在你可以和大模型对话,给它‘小费’,它能帮你很勤奋地干活,甚至同流合污。”他举例称,再比如Sora可以产生任何视频,这些视频大到可以用来干预美国大选、成为影响国家安全的武器,小到可以用来诈骗,其蕴含的危险性其实很大。当人工智能技术的发展已经走在法律前面的时候,全世界都在考虑如何对人工智能进行有效监管,如何防止它作恶或被利用,这目前也是全世界的难题。
“我不认为监管对人工智能的进步带来妨碍。相反,如果没有任何监管,对各大互联网做出的各种人工智能工具,最后好人不一定能很及时地用上,缅北的诈骗分子可能倒先用上了,据说他们对新技术的渴望和热爱不亚于我们的高科技公司。”他对《环球时报》记者开玩笑地说道。他表示,合理的监管应当能够对人工智能的发展带来正向推动作用,而不能一概认为是束缚。