谁将赢得生成式人工智能竞赛?

谁将赢得生成式人工智能竞赛?

对于一些行业观察者来说,这场竞争似乎还没开始就已经结束了。当ChatGPT成为有史以来增长最快的应用程序,在仅仅两个月的时间里就达到了1亿用户,这引发了一个严肃的可能性——在大多数人意识到竞争开始之前,OpenAI和GPT-4可能已经占据了市场的主导地位。

并不是说1亿用户是一个不可逾越的用户基础。毕竟,Google搜索每个月都拥有超过15亿独立用户。这也不是ChatGPT的品牌优势(尽管成为流行文化中唯一广为人知的人工智能应用程序肯定有好处)。真正的优势在于数据。

“数据”包括用户与人工智能之间的数亿次互动中发生的一切。它包括使用模式、提示文本和新出现的问题。有足够的数据,你可以建立一个良性的反馈循环,不断完善和改进人工智能模型。数据就是Bing无法挑战Google搜索的原因,尽管它投入了数十亿美元并尝试了十五年之久。由于Bing的用户流量只有Google的十分之一,Bing永远只能限制在一个较小的洞察窗口中,留给其微调搜索算法的信息也少得多。

因此,这是关于生成式人工智能竞争未来的最佳猜测。获得最多数据并将其纳入持续改进循环中的人将是赢家。

但事实并非如此。

今天,我们几乎每周都会看到一大批公司发布令人震惊的人工智能创新成果。最近的是Antrophic的Claude 3,一款在关键基准上击败了GPT-4的LLM,比如生成代码的人类评估质量。(现在在Amazon Bedrock上可以使用。)上周是Google的Gemini,拥有巨大的上下文窗口、可适应的代码生成和视频识别功能。几周前,我们看到了OpenAI的Sora的演示,它将文本转换成了以视频形式呈现的富有想象力的世界。Meta的Llama 3即将推出,将提供几乎我们现在所拥有的一切功能,并且是免费的。就连苹果公司也在暗示自己多年来在人工智能方面的秘密努力,它曾利用这些努力创建了一个拥有2000亿个参数的内部GPT。

简而言之,世界上最富有、最先进的科技公司正在将大量的资源投入到生成式人工智能中。我们开始看到一个模式,一种产品的突破性功能被复制,然后在另一种产品中被超越。目前的共识已经发生了变化,许多专家现在预计,随着模型的发展和该领域的发展,最好的大型LLM将越来越相似。

如果有几家公司都有能力构建可以与业内最好的系统相媲美的系统,那么谁会赢得生成式人工智能竞赛呢?如果Google能够快速跟进并推出类似产品,那么OpenAI是否先行还重要吗?哪家科技巨头或灵活的人工智能初创公司拥有未来?

商界中有一种理论叫做“创新者困境”,它解释了领先公司如何输给后起之秀的。占主导地位的公司看到竞争对手正在逼近,但他们低估了风险,因为他们知道自己产品的质量更优秀。但这就是问题所在。通常,赢得比赛的并不是纯粹的技术质量。如果竞争对手能够以十分之一的成本向90%的市场提供“足够好”的产品,那么它就可以改变游戏规则。老牌公司可能会围绕仍然需要最好产品的10%市场(仍然是利润丰厚的)闭门造车。但他们的受众将年复一年地缩减,他们的死亡螺旋开始了。

如果我们在AI领域达到了这样的拐点,情况可能会迅速改变。封闭源LLM的吸引力可能会在一夜之间消失。我们已经看到了AI生态系统的重大变化。不久前,我们还在争论是否有人会用类似的开放模型挑战像GPT-4这样的大型LLM。对于专利研究的保护存在严重的保留意见,担心潜在的滥用。但没过多久,秘密就泄露了,像Llama 2这样的有能力的模型也会出现。现在,第一个问题不是“OpenAI或Google或Anthropic的封闭源产品有多好?”相反,通常是“Llama对我的用例足够好吗?”“试一试又有什么坏处呢?”

“当免费、不受限制的替代品质量相当时,人们不会为受限制的模式付费。”

如果这就是全部情况,结论就显而易见了。最终,开源AI模型将超越其封闭源模型。然而,还有一些其他问题需要考虑。首先,开源AI并不完全是开源的——至少不是传统意义上开源。

当我们谈论开源软件时,我们清楚地知道这意味着什么:每一段代码都是可见的,可供你检查甚至更改。但是当我们谈论开源AI模型时,这个承诺并不那么明确。我们知道我们可以下载模型。我们可能可以获得其他细节,比如训练权重。然而,训练数据通常是保密的,这意味着无法复制开源模型。开源访问使得研究和理解AI模型变得更容易——并在其上进行创新;例如,通过新的微调技术(如LoRA)。但只是在一定程度上。考虑Llama 2。它是不透明的。复制它的成本非常高昂。它由一家大公司控制,只有更多的开发者进入它的生态系统,它才会受益。

而且,Llama 2并不使用像Apache那样的规范的开源许可证。Meta明确禁止了某些类型的使用,比如使用Llama来训练另一个模型。这样的限制导致AI研究人员声称,像Llama这样的模型几乎没有民主化访问的作用,而更多地是将权力集中在模型创造者手中。有些人把Meta的方法称为“开放清洗”——换句话说,使用开源来洗去底层闭源实践的污名。

还有一些更开放的小型模型,通常由基金会和非营利组织创建,它们比Llama更开放,但功能更少。但即使是这些模型也遇到了一个重大障碍。共享一个AI模型很容易,但共享支持它们的AI基础设施则要困难的多。这就是生成AI的最后挑战:计算之战。

开源AI可以免费拥有,但不能免费运行。开源人工智能免费拥有,但运行不是。这适用于所有软件,但对于大型模型和AI应用程序而言,计算和内存需求可能会非常惊人。在内部运行人工智能系统存在重大障碍。如果你需要云提供商托管你的AI基础设施,那么为人工智能计算基础设施付费和为使用人工智能模型付费之间的区别似乎并不特别显著。

如果你考虑训练自己的模型,差距将更大。即使你知道如何重建开源模型,你可能缺乏预算和数据科学专业知识。理论上是开放的……

世界上只有少数几家公司拥有专业硬件和资源来训练一流的LLM。

这就是我们今天的处境。但是LLM并不是成熟的产品,变化的步伐还没有放慢到接近日常生活的程度。事实上,LLM在两个方向上都在发展——一方面更强大,另一方面更精简。很快我们将可以选择Nano LLM,我们可以在当前的手机硬件上轻松运行。现在判断未来的发展是围绕随处可见的LLM还是以价值数万亿美元的科技公司为中心,并将其作为一种服务出租,还为时过早。

我认为不断发展的开源人工智能社区将占据主导地位。但这只代表了一个可能的未来。最终的赢家仍可能取决于某个封闭源模型能力的突然飞跃,或者另一种类型的生成式AI(如文本到视频)。或者也许是在开源生态系统中出现的全新工具,解决了看似棘手的问题,使得先进的AI系统比今天更容易获得和部署。我们只需要再等待一会儿,就能找到答案。

感谢阅读!你还可以订阅我们的YouTube频道,观看大量大数据行业相关公开课:https://www.youtube.com/channel/UCa8NLpvi70mHVsW4J_x9OeQ;在LinkedIn上关注我们,扩展你的人际网络!https://www.linkedin.com/company/dataapplab/

原文作者:Matthew MacDonald
翻译作者:文杰
美工编辑:过儿
校对审稿:Jason
原文链接:https://yc.prosetech.com/who-will-win-the-generative-ai-race-34852e2f2afa