原文作者:Tanya Malhotra
来源:Marktechpost
近年来,大型语言模型(Large Language Models,LLMs)在全世界受到了广泛赞赏,并在自然语言处理领域备受欢迎。这使我们能够使用比以往任何时候都更好、更清晰的语言理解来描述智能系统(Intelligent Systems)。
诸如 GPT-3、T5、PaLM 等 LLMs 的性能有了显着提高,并且这些模型将继续存在,因为它们可以完成从通过学习阅读来模仿人类,到生成文本和总结长段落内容的所有工作。而根据一些深入的研究,如果 LLM 的规模很大,那么它的表现就会很好。通过在大量数据上训练这些模型,它们可以理解人类语言的语法、语义和语用学。
数据:LayerX Capital在币安提取235万枚MATIC后,质押其全部1436万枚MATIC:6月21日消息,据LookonChain监测,6个半小时前,LayerX Capital从币安提取了235万枚MATIC(约合148万美元),并于5小时前质押了全部1436万枚MATIC(约合900万美元)。[2023/6/21 21:51:29]
由 OpenAI 开发的流行的大型语言模型 ChatGPT 之所以发展得如此之快,正是因为采用了人类反馈强化学习(RLHF)等先进技术。通过 RLHF,机器学习算法结合并使用人工输入提高了模型的性能。它针对预训练的 LLM 进行了微调,用于开发聊天机器人、虚拟助手等任务。
US3R Network发布Web3动态数据基础设施:4月11日消息,US3R Network 近日宣布推出其用于 Web3 的链下数据基础设施。Web3 和 dApps 领域正在快速增长,但目前 dApps 主要用于金融和金融科技,数据存储限于静态文件,与 Web2 数据库相比,链上存储动态数据昂贵且缓慢,难以开发数据量大的社交和用户生成数据 (UGC) 场景。[2023/4/12 13:57:45]
此外,ChatGPT 等 LLMs 所基于的预训练基础模型也得到了明显的改进。这主要是由于三个方面的变化:
阿根廷证券委员会:加密企业必须在监管之下:金色财经报道,阿根廷国家证券委员会(CNV):加密企业必须在监管之下。[2022/11/15 13:08:54]
1.实践证明,模型的扩展性(Scaling)对提高其性能很有帮助。以 Pathways 语言模型(Pathways Language Model,PaLM)为例,该模型通过扩展小样本学习(few-shot learning)大大影响了其性能,小样本学习可以减少根据具体应用调整模型所需的特定任务训练实例的数量。
通过使用 Pathways 语言模型在 6144 TPU v4 芯片上扩展和训练 5400 亿个参数,PaLM 展示了重复扩展的好处,其表现超过了各种传统模型,并显示出很大的进步。因此,深度和宽度的扩展都是提高基础模型性能的一个重要因素。
过去一周 NFT 销售额跌幅超54%:金色财经报道,由于加密货币市场急剧下跌,过去一周 NFT 的销售额暴跌了 54% 以上。根据NonFungible的数据,过去一周,NFT 销售额达到 2500 万美元,较前一周下降 54.6% 。同样,NFT 销售数量、NFT 均值和二级销售均出现大幅下滑,分别下降 22.2%、41.8% 和 56.7%。
根据 CryptoSlam 的数据, Yuga Labs的Otherdeed NFT、Bored Ape Yacht Club (BAYC)、Azuki和Mutant Ape Yacht Club (MAYC) 的销售额在过去一周都下降了 50% 以上。在较受欢迎的蓝筹系列中,Azuki NFT 受到的打击最大。过去一周,该系列的销售额下降了约 77%,新买家数量下降了 74%。(cryptonews)[2022/5/21 3:32:42]
2.另一个变化是在预训练时增加标记数量的过程。像 Chinchilla 这样的模型(开源语言模型)已经证明,通过增加预训练数据,大型语言模型的表现会更好。
Chinchilla 是一个计算最优模型。在相同的计算预算下,在 70B 参数和比 Gopher 模型多四倍的数据上进行训练,Chinchilla 的表现一致优于 Gopher,它甚至比 GPT-3、Jurassic-1 和 Megatron-Turing NLG 等 LLMs 效果更好。这清楚地描述了对于每一个计算最优的训练,标记的数量应该相应地缩放——即模型大小的两倍,因此训练标记的数量应该是两倍。
3.第三个变化是使用干净和多样化的预训练数据。Galactica 的性能证明了这一点,它是一种存储、混合和推理科学知识的大型语言模型。经过几篇科学论文文本的训练,Galactica 的表现优于 GPT-3、Chinchilla 等模型。另一个大型语言模型 BioMedLM 是一种针对生物医学文本的特定领域 LLM,在针对特定领域数据进行训练时,它表现出了巨大的性能提升。它清楚地表明,在特定领域的数据上进行的预训练胜过在通用数据上的训练。
LLMs 的成功无疑归功于多种因素的混合,包括 RLHF 的使用和预训练基础模型的发展。这三个变化极大地影响了 LLMs 的性能。此外,GLaM(通用语言模型)通过使用稀疏激活的混合专家架构(Mixture-of-Experts architecture),以更少的训练成本扩展模型的容量,从而显着提高了性能。因此,这些变化为更高级的语言模型开辟了道路,而这些模型将继续让我们的生活变得轻松。
DeFi之道
个人专栏
阅读更多
金色财经 善欧巴
金色早8点
Odaily星球日报
欧科云链
Arcane Labs
深潮TechFlow
MarsBit
BTCStudy
澎湃新闻
2023年3月15日Filecoin按照预期成功发布Filecoin虚拟机FVM。Filecoin官方博客发文介绍了FVM及其可能的用例,金色财经xiaozou编译.
1900/1/1 0:00:00随着美联储出手,市场出现了翻天覆地的变化。全文:今天,我们正在采取果断行动,通过增强公众对我们银行系统的信心来保护美国经济.
1900/1/1 0:00:00原文作者:Jameson Lopp原文编译:Peng SUN,Foresight News一项新技术看似毫无征兆地自发出现,但实际上是多位科学家数十年研究和开发的结晶.
1900/1/1 0:00:00撰文:Jameson Lopp编译:Peng SUN,Foresight News一项新技术看似毫无征兆地自发出现,但实际上是多位科学家数十年研究和开发的结晶.
1900/1/1 0:00:00一、行业动态总结 上周加密市场整体走势与美股类似,周中受非农数据预期影响震荡下跌,周五受硅谷银行,大非农数据超预期等因素同美股大跌,但交易量仍较为活跃,市场在几个整数位上都表现出较浓的抄底情绪.
1900/1/1 0:00:00撰文:Jack Inabinet经过漫长的 5 个月,以太坊的下一次重大网络升级已在眼前!9 月中旬,合并的成功实施意味着以太坊完成了期待已久的从工作量证明到权益证明的过渡.
1900/1/1 0:00:00