经济学博士,宏观投资者
2023-12-05
经济学博士,宏观投资者
11月23日,据透露,在阿尔特曼被解雇之前,几名研究人员向公司股东大会发出了一封信,警告称为“Q*“人工智能可能会危及人们。这封信是股东大会免除Altman的原因之一。阿尔特曼和OpenAI还没有回应,我相信我们将来会看到更多的幕后故事。
除了八卦,OpenAI内部激烈的权力斗争背后是近年来人工智能市场的快速发展。许多各方都认识到了这一广泛的投资渠道,导致了当前行业领先公司控制权的激烈竞争。
在OpenAI的人事斗争环境下,人工智能挖金热潮中最重要的“卖铲子”芯片公司英伟达公布了第三季度的财务报告。在人工智能芯片游戏芯片需求上升的推动下,英伟达第三季度的收入达到去年同期的三倍。然而,美国政府新的芯片禁运指令将导致相当一部分以前可以卖给中国的芯片无法继续卖给国内公司。

自去年以来,美国政府已经更新了中国的芯片禁运几轮。尽管英伟达和其他欧美芯片公司每次都会开发一些中国需求的特殊版本芯片,以避免禁运对策,但这些特殊版本芯片与欧美科技公司获得的人工智能芯片有很大的不同。直观地说,人工智能芯片可以与操作大语言模型时的计算水平有关。计算能力的差异立即带来了计算时间和计算所需能耗之间的差异。这也是美国芯片禁运的主要目的,阻止国内公司实践和开发自己的人工智能大语言模型。
那么美国禁运AI芯片对AI大语言模型在中国的应用有多大影响呢?
根据目前已知的AI大语言模型应用,我们可以粗略地将大语言模型的使用分为两类,一类是“to B也就是说,企业应用领域,另一种是“to C即一般客户应用领域。
目前,大语言模型在公司应用场景中最有前途的用途是什么?我们仍然可以从今天最受欢迎的“销售人工智能铲”公司英伟达那里找到答案。
从10月底到11月初,美国电子电气工程师学会(Institute of Electrical and Electronics
Engineers,IEEE)在一次国际会议上,英伟达顶尖科技官在主题演讲中详细描述了英伟达是如何开发公司内部特殊语言模型的。
英伟达自用的大型语言模型数据来自编码、程序文档、芯片设计文档、测试结果、错误报告和内部技术讨论的通信记录。自用人工智能模型的开发希望通过培训大型语言模型实现三个目的:
首先是建立一个应对年轻工程师的内部机器人,根据了解年轻工程师的问题,从过去的材料信息中寻求答案,让年轻工程师从内部机器人中正确解释大部分技术困难,缓解经验丰富的高级工程师回答问题的压力,然后让高级工程师更多地关注新产品的开发。
第二个目的是简化芯片设计过程,减少在芯片设计和测试过程中编写复杂代码的必要性。
第三个目的是简化芯片测试过程中的错误报告和错误纠正分析报告,将近几十页的复杂错误报告简化为几个自然部分,并为技术人员和管理人员提供不同的测试报告总结。

英伟达的人工智能芯片现在是每个人工智能模型研发中不可或缺的基础设施产品。该公司对如何应用大语言模型来提高公司的生产力具有重要的启示,对其他公司思考如何在内部工作中使用大语言模型具有重要意义。
综上所述,我们可以发现,在目前的水平上,大语言模型对提高这些知识密集型行业或公司的生产力有最好的效果。提高生产力的关键是帮助知识公司更有效地分配最重要的资源,最重要的资源是知识企业核心技术人员的工作时间,让关键技术精英花更多的时间规划新产品结构,突破最宝贵的工作,这些时间太长,收入小的工作交给人工智能完成。
英伟达不是唯一一个发现类似人工智能的人工智能”to
B“美国许多其他大型科技公司也发现,人工智能语言模型最有效的应用是帮助开发者缓解解决复杂和琐碎工作的困难,节省这些时间。例如,在开发新的软件程序模块时,根据公司使用的大型语言模型,从过去的技术文档中找到和总结相关的代码描述和需求分析,可以更快、更有效地确定新的软件开发需求,更好的时间可以缩短项目实施时间的三分之一。
自然,知识密集型公司不仅限于IT技术公司,还包括法律、金融、生物技术,甚至许多高端制造公司。恐怕大语言模型也可以应用于这个行业的企业,以提高英伟达的工作效率。

对于这类行业来说,他们在应用人工智能时有一些共同点。
例如,公司实践人工智能模型数据通常来自公司内部,格式和语言类型相对标准是固定的。法律事务所通常面临的法律条款和判决文件、金融机构处理的各种财务报告、IT公司面临的编程代码和技术文件通常具有相当标准的格式和大量的重复使用和明确定义的专业术语。因此,单个企业自身的业务数据库远低于数十亿网民在整个互联网上创造的复杂内容,从信息量到语言复杂性。
另一个应用特点是,公司内部客户向人工智能模型提问的问题类型将相对严肃和集中,基本上局限于技术和业务问题。与大多数网民对互联网上发布的通用人工智能语言模型提出的各种问题不同,世界各地都有各种各样的问题,有些人甚至选择偏远和模糊的关键知识和复杂的逻辑问题来寻找乐趣。
上述应用场景的区别也带来了“to B”和“to C“关键差异:练习数据库之间的量级差异。面对ChatGPT
四大语言模型有1750亿个参数,据说有13万亿个离散文本模块(token)。英伟达的结构性大语言模型公司培训数据只包括240亿次token,只包括ChatGPT
4.0.2%上下。
听说目前国内几个公开测试的大语言模型,练习数据库的规模大多在万亿token以上,已经远远超过了英伟达这个行业龙头企业的需求。除了几家互联网平台企业,国内大部分企业在内部产品研发过程中积累的数据量可能没有英伟达多。
数据的规模和复杂性在很大程度上决定了培训模型需要多少计算能力,计算能力需求在很大程度上决定了硬件配置的要求,特别是芯片能力。因此,公司自用人工智能模型所需的计算能力和芯片能力远低于ChatGPT 这种通用模型是如此夸张。
虽然国内人工智能芯片因禁运而落后于欧美先进水平,导致计算成本和持续时间高于国外人工智能模型,但国内企业进口了目前的人工智能芯片,包括国内设计、制造人工智能芯片,足以完成这些特殊人工智能语言模型的实践和应用,提高公司内部的工作效率。用一个描述来表达这种现象,玩家必须购买最新的4090显卡来顺利运行最新的3A杰作,因为旧显卡通常不能带来这些游戏。如果你只玩一些老游戏,比如仙剑传奇1,显卡对游戏运行平稳性的影响并不那么重要,玩家也不需要为4090而战。
从英伟达领先科技企业的投资方向来看,目前人工智能模型仍然是企业内最明显、最有效的生产力应用方向。然而,这些方向也可以用中国的计算率来完成,海外芯片禁运的危害最小。
自然,这并不意味着国内外在企业内部人工智能应用上没有差距。从大语言模型软件的开发和调试,以及企业内部数据和知识的整理,以及人工智能模型应用与具体科研相结合的各种问题,大多数中国知识密集型公司仍然落后于时代,但与“to
C“在一般客户应用中,这一方向至少受到硬件约束,追赶国际先进水平的阻力最小,但潜在的经济回报更大。
与“to B由于起步晚、资金有限、芯片禁运的影响,中国在语言模型中有着相对开朗的前景to

C“通用应用程序更不同,短期追求更困难。当OpenAI在刚刚结束的开发者会议上提出建立一个应用程序购物中心平台时,苹果应用程序商店在近十年前移动互联网开始发展时,在形成工业生态和占领商业应用市场方面占据了先例。国内通用语言模型在技术上仍落后于OpenAI的第一代和第二代。此外,硬件受到严重限制。虽然它可以在短时间内占领中国市场,但它仍然无法在国际市场上与外国制造商竞争。
在“to C“目前,该行业最现实的对策仍然是尽可能密切关注,从国外探索和验证的一般领域选择最成熟的商业投资方式,最好发挥有限资产的使用效果。
接受现实,在继续推进国内半导体软硬件和设备研发定位的同时,促进知识密集型企业专用人工智能模型的应用,提高研发效率,是符合中国经济考验的最有效措施。一方面,中国产业升级和高端品牌的负担正好落在了这家知识密集型公司身上。如果使用人工智能模型可以提高企业的研发和生产效率,这将有助于中国加快加快外部禁令和产业升级的重要发展战略。另一方面,这些公司开发自己的人工智能模型,也可以为国内半导体软硬件制造商提供宝贵的要求和产品验证机会,这与美国每一家大型科技制造商向英伟达下订单,为英伟达的商品不断更新提供大量资产是一样的。
因此,在人工智能产业化的过程中,中国仍处于追求世界先进水平的地位。为了应对外部堵漏的持续升级,最现实、最有效的人工智能发展形式,恐怕是加快公司人工智能模型研发的应用,有效利用人工智能促进实体经济的生产力发展,从PPT到实际生产研发过程的人工智能语言模型,也可以适用于人工智能产业更快更好的发展。
来源 |底线思维