Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
小语言模型(SLMs)被吹捧为人工智能的下一个大事
尽管公司正在向大语言模型(LLMs)投入大量资金,但人工智能行业的一些专家认为小语言模型(SLMs)将成为下一个大事件。
这是由于行业中的活动在节日季节的到来时继续增长,科技公司投资更多资金费用来开发他们的技术。
未来在于小型语言模型
由亿万富翁埃隆·马斯克(Elon Musk)运营的xAI等公司设法从Andreessen Horowitz,卡塔尔投资局,红杉和Valor Equity Partners那里筹集了50亿美元,而亚马逊则向OpenAI的竞争对手Anthropic额外投资了40亿美元。
尽管这些大型科技公司和其他公司正在投资数十亿美元,致力于开发能够处理多种不同任务的大型LLM,但人工智能的现实是,没有一种大小适合所有的解决方案,因为企业需要针对特定任务的模型。
根据AWS首席执行官Matt Garman在发布其扩展合作与投资的声明中所说,已经有许多AWS客户正在开发由Anthropic驱动的生成式人工智能,并取得了压倒性的反响。
对于大多数公司来说,LLMs仍然是某些项目的首选,但对于其他项目来说,这种选择可能在成本、能源和计算资源方面昂贵。
Teradata的总裁兼首席执行官Steven McMillan为一些企业提供了另一种选择,并持有其他观点。他认为未来在SLM中是积极的。
“在展望未来时,我们认为小型和中型语言模型以及受控环境(如特定领域的LLM)将提供更好的解决方案。”
~ 麦克米兰
SLMs根据特定类型的数据生成定制输出,因为语言模型经过特定训练以实现该目的。由于SLMs生成的数据被内部保留,因此语言模型是在潜在敏感数据上进行训练的。
由于LLMs能耗高,因此小型语言版本经过训练,可以根据项目实际需求调整计算和能源使用规模。经过这样的调整,意味着SLMs在比当前大型模型更低的成本下更加高效。
对于希望使用人工智能进行特定知识的用户来说,有特定领域的LLM选项,因为它们不提供广泛的知识。它经过深入的培训,只深入了解一类信息,并能更准确地回答,例如在该领域中,抵押贷款债券(CMO)与首席财务官(CFO)的区别。
为什么 SLM 是首选选项
根据数据科学家协会(ADaSci)的说法,为一百万用户完全开发具有70亿参数的SLM只需要55.1兆瓦时(MWh)。
ADaSci 发现训练 1750亿参数的 GPT-3 消耗了约 1,287 兆瓦时的电力,该电力不包括公众正式使用时的电力。因此,一个 SLM 大约使用了训练 LLM 消耗能量的 5%。
通常在云计算机上运行大型模型,因为它们使用的计算能力比个人设备上可用的计算能力更多。这导致公司面临复杂情况,因为它们在信息转移到云端时失去了对信息的控制,并且在信息通过互联网传输时会出现缓慢的响应。
走向未来,企业对人工智能的采用不会是一刀切的,因为效率和选择最佳和最便宜的工具来完成任务将成为焦点,这意味着为每个项目选择合适大小的模型。
这将适用于所有型号,无论是通用的LLM还是更小和特定领域的LLM,取决于哪种型号能够提供更好的结果,需要更少的资源,并减少数据迁移到云端的需求。
在接下来的阶段,人工智能将对业务决策至关重要,因为公众对人工智能生成的答案非常有信心。
“当你考虑训练AI模型时,它们必须建立在优质数据的基础上。”
~ 麦克米兰
“这就是我们的全部内容,提供可信赖的数据集,然后提供能力和分析能力,让客户及其客户可以信任输出,” McMillan补充道。
在世界上对效率和准确性的需求很高时,更小且特定领域的LLM为提供公司和广大公众可靠结果的另一种选择。
在90天内启动您的Web3职业生涯并获得高薪的工作的逐步指南。