火星链 火星链
Ctrl+D收藏火星链
首页 > MANA > 正文

CHAT:ChatGPT为什么这么强

作者:

时间:1900/1/1 0:00:00

1.从周五到周末ChatGPT已经疯传开来,其对话能力让人惊艳。从玩梗、写诗、写剧本,到给程序找bug,帮人设计网页,甚至帮你生成AIGC的提示词,一副无所不能的样子。可以去Twitter上看BenTossell梳理的一些例子,或者自己去试试!一位MBA老师让ChatGPT回答自己的管理学题目,结论是以后不能再布置可以带回家的作业了。很多人用了以后无法自拔,就如这位所见:

Musk问ChatGPT怎么设计Twitter(不得不说还挺有创意):

2.有人让ChatGPT参加了智商测试,得分83;SAT测试得分1020,对应人类考生52%分位。要知道ChatGPT并没有对数学方面做过优化,已经是相当不错的结果了。

BlockwareTeam分析师:闪电网络的利息收入机会是一场金融革命:金色财经报道,BlockwareTeam首席分析师兼产品经理 Joe Burnett?在社交媒体上表示,闪电网络的利息收入机会是一场金融革命,原因有二: 1. 闪电网络提供没有违约风险的利息收入。2. 没有违约风险的收入意味着我们现在拥有国际可信的无风险回报率。2022 年,闪电网络为节点运营商带来了约 200 万美元的费用。随着区块空间保持固定,比特币的采用继续扩大,随着闪电网络成为全球可信赖的支付网络,交易量激增,这种情况将继续增长。[2023/4/27 14:30:28]

3.ChatGPT的提升点

相比之前的GPT-3,ChatGPT的提升点在于能记住之前的对话,连续对话的感觉让人舒服。

ChatGPT可以承认错误,如果你认为他的回答不对,你可以让他改正,并给出更好的答案。

ConsenSys的zkEVM公共测试网将于3月28日上线:金色财经报道,以太坊基础设施开发公司ConsenSys将于3月28日推出零知识以太坊虚拟机(zkEVM)公共测试网。

此前报道,2月24日,ConsenSys表示其zkEVM测试网封闭测试版已经执行30万笔交易,每天处理超过5万笔交易。[2023/3/4 12:41:30]

ChatGPT可以质疑不正确的前提,GPT-3刚发布后很多人测试的体验并不好,因为AI经常创造虚假的内容,而现在再问“哥伦布2015年来到美国的情景”这样的问题,AI已经知道哥伦布不属于这个时代了。

ChatGPT还采用了注重道德水平的训练方式,按照预先设计的道德准则,对不怀好意的提问和请求“说不”;当然,尽管OpenAI非常小心,这种准则还是可能被聪明的提问方式绕开。

4.ChatGPT的训练方法

当下大模型的工作范式是“预训练-微调”。首先在数据量庞大的公开数据集上训练,然后将其迁移到目标场景中,通过目标场景中的小数据集进行微调,使模型达到需要的性能。微调/prompt等工作从本质上对模型改变并不大,但是有可能大幅提升模型的实际表现。人类问问题方式对于GPT-3而言不是最自然的理解方式,要么改造任务,要么微调模型,总之是让模型和任务更加匹配,从而实现更好的效果。

Aave创始人:V3升级旨在管理风险,并将提高stETH等衍生品的资金效率:2月7日消息,Aave创始人兼CEO ?Stani Kulechov表示,Aave V3升级完全是为了管理风险。隔离模式等新功能将使协议安全地上线长尾资产,而不会使整个协议面临风险。该升级还引入一个新的门户功能,允许用户在不同区块链上的不同市场之间转移资产。此外,该升级允许以太坊多头在上海升级之前使用 stETH 等流动性质押衍生品加倍下注。(Decrypt)[2023/2/7 11:51:37]

ChatGPT是22年1月推出的InstructGPT的兄弟模型。InstructGPT增加了人类对模型输出结果的演示,并且对结果进行了排序,在此基础上完成训练,可以比GPT-3更好的完成人类指令。ChatGPT新加入的训练方式被称为“从人类反馈中强化学习”。

ChatGPT是基于GPT-3.5模型,训练集基于文本和代码,在微软AzureAI服务器上完成训练。原先GPT-3的训练集只有文本,所以这次新增了代码理解和生成的能力。

5.为什么ChatGPT的提升这么明显

除了带有记忆能力、上下文连续对话能带给人显著的交互体验提升,ChatGPT的训练方式也值得关注。上述提到的RLHF方法首见于22年3月发表的论文(Traininglanguagemodelstofollowinstructionswithhumanfeedback),但根据业界的推测,RLHF并未用到InstructGPT的训练中。InstructGPT所用到的text-davinci-002遇到了一些问题,会呈现出模式坍塌(modecollapse)现象,不管问他什么问题,经常收敛到同样的答案,比如正面情绪相关的回答都是跟婚礼派对相关。

Cumulus Data核动力数据中心建成,可为比特币挖矿提供50兆瓦能源:金色财经报道,美国首个核动力数据中心Cumulus Data建成,该园区占地1200英亩,将用于提供比特币挖矿和云计算服务。目前,该项目仍处于第一阶段,预计可为加密采矿提供50兆瓦的能源。园区最终总装机容量可达475兆瓦。

2021年,园区运营方宣布与矿企TeraWulf成立合资企业,将在园区内进行Nautilus Cryptomine(鹦鹉螺号加密采矿)项目。

Cumulus Data数据中心电力来自Susquehanna核电站,该电站拥有两个发电机组,每个机组净发电能力为1257兆瓦。1号机组于1983年投入商业运行,2号机组于1985年投入商业运行。[2023/1/24 11:27:33]

这次RLHF的方法得以在ChatGPT上应用,并取得了很好的效果。但RLHF实际上并不容易训练,强化学习很容易遇到模式坍塌,反馈过于稀疏这类问题,训练起来很困难。这可能也是为什么论文在3月发表,ChatGPT在12月才上线,中间需要大量的时间来调优。

此外,指令调整的贡献也很大。InstructGPT虽然在参数上比GPT-3少了100倍,它的输出效果比GPT-3以及用监督学习进行微调的模型都要好得多。

根据知乎用户“避暑山庄梁朝伟”的观点:“InstructionTuning和Prompt方法的核心一样,就是去发掘语言模型本身具备的知识。而他们的不同点就在于,Prompt是去激发语言模型的补全能力,比如给出上半句生成下半句、或者做完形填空,都还是像在做languagemodel任务,而InstructionTuning则是激发语言模型的理解能力,通过给出更明显的指令,让模型去理解并做出正确的反馈。”

Acala更新aUSD异常增发事件链上追踪结果,共有30.22亿枚aUSD被16个地址认领:8月17日消息,Acala发推更新aUSD异常增发事件链上追踪结果,共有30.22亿枚aUSD被16个地址认领。Acala公投#21销毁了12.92亿枚。事件发生后获得的iBTC/aUSD LP代币中的16.82亿枚aUSD留在16个Acala地址上,从事件中获得的iBTC、ACA和DOT等其他代币仍然保留在这16个Acala地址上。一个地址声称有29亿枚aUSD增发代币,已经销毁12.67亿枚。

之后,Acala将发布一系列跟踪报告,以识别Acala上与aUSD错误铸币厂相关的交易活动,详细说明这16个已识别地址中的每一个的交易跟踪。社区可以使用info&script验证链上数据,并提出解决aUSD异常增发事件的建议。[2022/8/17 12:31:01]

参考下图,以前大模型的提升重心更多放在了大模型本身和PromptEngineering上,而ChatGPT的迭代重点是右侧的闭环。

action-drivenLLM训练流程图

最后,ChatGPT在过于保守不提供有效回答和提供虚假信息之间做出了较好的权衡。之前Meta用于科研的大模型Galactica上线仅3天就被迫下线,因为提供了过多虚假的信息。这跟Meta的宣传策略也有关,其本意是想帮助研究人员整理信息、辅助写作,但Meta将其模型宣传为“可以总结学术论文,解决数学问题,生成维基文章,编写科学代码,为分子和蛋白质做注解等”,过高期望带来了反效果,科研人员本来就是挑剔的。ChatGPT尽管不能完全避免虚假信息的问题,但可以看出在微调/Prompt方面做了足够细致的工作,一些自相矛盾的提问可以被甄别出来,让用户对其回答更有信心。

6.商业策略也是重要一环

这次ChatGPT是免费不限量向公众开放,用户可以尽情在平台上尝试各种奇异疯狂的想法,而此前GPT-3是根据使用量(token)来收费的。在使用过程中,用户可以提供反馈,这些反馈是对OpenAI最有价值的信息。OpenAI并不急于创收也不缺钱,坊间传言最新一轮估值已经达到数百亿美金,还有金主爸爸微软。

对于AI发展来说,工程的重要性实际上大于科学,创建一个迭代反馈的闭环至关重要。OpenAI很注重商业应用,GPT-3已经拥有大量客户。这些客户跟OpenAI的反馈互动也是推动进步的关键一环。相比之下,谷歌的闭门造车就显得不合时宜,或许是缺乏商业化的文化,或许是受限于投入产出比,谷歌对于大模型的应用一直很“克制”,即便起点很高,但如果一直像Waymo做自动驾驶一样小规模迭代,早晚会被更为开放,获得更多数据的企业超越。

7.后续提升点

RLHF是一种较新的方法,随着OpenAI不断摸索,结合ChatGPT搜集到的用户反馈,模型还有进一步提升的空间。尤其是在道德/alignment层面,需要屏蔽掉这几天大家试验出来的绕过系统限制产生负面信息的方法。

当然也别忘了,OpenAI还有WebGPT这样的工具,可以理解为高阶版网页爬虫,从互联网上摘取信息来回答问题,并提供相应出处。比如下面的问题Howdoneuralnetworkswork,WebGPT利用了GPT-3本身具备的语义理解能力和互联网公开信息,自己结合出了一份答案,不失为一种升级的搜索能力。

在MITTechnologyReview对OpenAI科学家的采访中,他们提到了后续有可能将ChatGPT和WebGPT的能力结合起来。有网友挖掘出了ChatGPT内设的提示词,其中包含browsing:disabled,把浏览网页能力关闭了,也就是说后续有可能加入这个能力。可以设想,ChatGPT+WebGPT可以产生更为有意思的结果,信息可以实时更新,对于事实真假的判断将更为准确。

与WebGPT的这种结合,对应到上面?action-drivenLLM训练流程图?的左半部分,即连接外部的信息源和工具库。事实上网页搜索只是一种可能,还结合利用各种工具,实现更丰富的功能。

在产品层面,是不是有更好的界面和实现方式也值得讨论。同屏对话框形式容易让人产生过高的预期,因为要保障对话的流畅性。在这一点上,GithubCopilot产品就做得很好,Copilot主打的是programmingpair,以伙伴的身份提出建议。从用户角度,这个建议好就接受,不好就不接受;即便提出了很多不被接受的建议,但在随机时间间隔产生的有效建议带来的爽感就会让用户上瘾。如果ChatGPT后续成为写作助手、编剧助手、工作助手等等,类似Copilot的产品形态会容易让人接受。

写在最后

很多人惊叹于ChatGPT的能力,但其实真正惊艳的还在后面。OpenAI最厉害的不是他关于大模型的理解,而是其工程化、迭代反馈的能力,以及alignment(AI跟人类目标的统一)方面的工作。很欣赏OpenAICEOSamAltman的一句话:“Trusttheexponential.Flatlookingbackwards,verticallookingforwards.”?我们就处在即将起飞的这个点上。

标签:GPTHATCHATCHAX-GPTChatCoinCloudChatfinchain

MANA热门资讯
TEC:长推:为什么 GMX 将会失败?

本文来自加密KOL@degentrading的TwitterThread,MarsBit编译如下:我把BlockFi的崩溃称为创世纪--因为他们管理风险的方式存在明显的问题.

1900/1/1 0:00:00
CRO:Scroll 联创张烨:Scroll 的设计架构和挑战是什么?

近日,Scroll的联合创始人张烨受邀参加了斯坦佛的区块链研讨会,分享了Scroll的架构设计和挑战。在演讲的前半部分,介绍了Scroll的整体架构,并重点介绍其一些特殊的设计选择.

1900/1/1 0:00:00
AME:SBF参加纽约时报活动对话实录:没管好公司,不认为自己有刑事责任

美东时间11月30日《纽约时报》的AndrewRossSorkin在Dealbook大会上视频采访了FTX前首席执行官SamBankman-Fried.

1900/1/1 0:00:00
EFI:在分析前200个DeFi协议后,我们可以得到什么见解?

在这篇文章中,我将会分享在分析200个顶级DeFi项目后所得到的见解。这不是一项学术研究,但这些发现对加密货币投资者来说是有价值的.

1900/1/1 0:00:00
FTX:MarsBit日报 | Vitalik预测2023年3大机会;Sui基金会重申暂无代币空投计划

MarsBitCryptoDaily2022年12月20日一、?今日要闻Alameda曾向初创公司ModuloCapital提供4亿美元投资多策略对冲基金ModuloCapital.

1900/1/1 0:00:00
SIN:深入分析三个服务类 DAO:Myosin、Code4rena、Risk DAO

有些DAO喜欢办聚会,有些DAO喜欢玩艺术,服务类DAO则喜欢搞钱。就形式而言,服务类DAO一半是社交俱乐部,一半是代理机构。可以想像成FWB有一个专注于服务Web2公司的咨询分公司.

1900/1/1 0:00:00