火星链 火星链
Ctrl+D收藏火星链

人工智能:清华唐杰:GPT-3表示能力已经接近人类,但它有一个阿喀琉斯之踵

作者:

时间:1900/1/1 0:00:00

编辑部整理自MEET2021量子位报道|公众号QbitAI

人工智能,现在发展到什么阶段了?

从发展脉络上看,从符号智能、感知智能,现在应该到认知智能阶段了。

或者说,我们正走在认知智能的路上。

今年大火的GPT-3,其参数量已然达到了千亿级别,规模已经接近人类神经元的数量了。

这说明,GPT-3的表示能力已经接近人类了,但它仍有一些认知局限——没有常识。

那我们何时、又将如何走向认知智能?

未来计算机的认知能力,能否超过人类?

什么样的模型可以驱动未来的认知AI?

认知智能的概念是否又该重新定义?

……

在MEET2021智能未来大会现场,清华大学计算机系教授、系副主任唐杰用简单、通俗的例子为我们一一解答。

当时听完演讲的观众直呼:求唐杰老师的PPT!

关于MEET智能未来大会:MEET大会是由量子位主办的智能科技领域顶级商业峰会,致力于探讨前沿科技技术的落地与行业应用。本次大会现场有李开复等20余位行业顶级大咖分享,500余名行业观众参与,超过150万网友在线收看直播。包括新华社、搜狐科技、澎湃新闻、封面新闻等数十家主流媒体在内纷纷报道,线上总曝光量累计超过2000万。

亮点

1、认知图谱有了一个全新概念,它包含三个核心要素:常识图谱、逻辑生成以及认知推理。

2、GPT-3参数规模已经接近人类神经元的数量,这说明它的表示能力已经接近人类了。但是它有个阿喀琉斯之踵——没有常识。

3、数据+知识双重驱动,也许是解决未来认知AI的一个关键。

4、用计算模型来解决认知是不够的,未来需要构建一个真正能够超越原来的,超越已有模型的一个认知模型。

5、通用人工智能还有多远?我们希望它有持续学习的能力,能从已有的事实,从反馈中学到新的东西,能处理一些更复杂的任务。

清华大学沈阳:金融在元宇宙的运行中,属于不可缺少的基础设施:11月27日消息,伴随着Facebook改名、多家游戏公司宣布入局等事件,走热的元宇宙概念正在引发市场多方关注。清华大学新媒体研究中心执行主任沈阳表示:“金融在元宇宙的运行中,属于不可缺少的基础设施。它的作用与现实世界的金融体系一样,随着元宇宙进一步发展,对整个现实社会的模拟程度加强,这样在虚拟世界里同样需要金融系统支撑。”在谈及对未来元宇宙与金融的契合可能性时,沈阳将其大致分为了几个方面:首先是传统金融公司参与搭建元宇宙基础设施;其次是在完成基础搭建后,元宇宙资产货币化后,也会带来大量的金融公司参与机会;再者,金融公司未来的获客等活动也可以转到元宇宙中完成。“从生产到交互,在使用与交易过程中,虚拟世界的个体活动以及公司经营,也会需要保险等金融配套服务,包括元宇宙的小微平台会产生贷款需求,方方面面都需要金融的支撑。[2021/11/27 12:35:18]

为什么是认知图谱

我给今天的分享起了一个新名字:“认知图谱:人工智能的下一个瑰宝”。

为什么叫认知图谱?首先看一下人工智能发展的脉络。

从最早的符号智能,再到后面的感知智能。最近,所有人都在谈论认知智能。

我们现在需要探讨“计算机有没有认知”、“计算机能不能做认知、推理”、“计算机到未来有没有意识,能够超过人类”这些问题。

人工智能发展到现在已经有三个浪潮,我们把人工智能叫做三个时代分别是符号AI、感知AI和认知AI,现在正处在实现认知AI的路上。

具体如何实现呢?

我认为需要一些基础性的东西,比如里面的认知图谱怎么构建,里面认知的一些逻辑,包括认知的基础设施怎么建,这也是我们特别想做的一件事情。

回顾机器学习的发展历程,首先想到的就是很多分类模型,比如决策树,贝叶斯、神经网络……

清华大学鞠建东:应推动建立数字人民币跨境支付结算新体系:清华大学五道口金融学院教授鞠建东近期撰文表示,为应对我国金融安全面临的挑战,必须加快数字金融基础设施的建设与升级,推动建立数字人民币跨境支付结算新体系。运用区块链等新技术全力实现人民币的跨境支付功能,通过人民银行发行的数字货币解决计价问题,暂时搁置人民币的储备功能,在DC/EP框架下完善人民币与其他货币的直接汇率询价机制。在此基础上建立一个“数字人民币跨境支付结算新体系”。(证券时报)[2020/9/29]

最左边是分类模型、序列模型、概率图模型,往右一点是最大化边界,深度学习,循环智能,随后是强化学习、深度强化学习,以及最近常提及的无监督学习。

机器思考VS人类思考

机器学习发展到现在,离认知到底还有多远?

于是,我整理了很多诺贝尔奖和图灵奖得主的研究,对比了人的认知与机器认知之间的发展模式。

在探究人类思考的历程里,1900年初才有了神经系统结构的第一次解析,随后在1932年左右,诞生了一个诺奖级的研究:神经元功能“突触”。

然后就是神经末梢传递机制、视觉系统机理、嗅觉系统机理……直到几年前,科学家们才探索出人的大脑是如何实现定位导航、以及机理是怎么回事,这也是一个诺奖的研究。

我们来看下机器是如何思考的。

1950年左右,学者创立了人工智能系统,但是1970年左右大家开始拼命去模仿人脑,我们要做一个计算机,让他跟人脑特别相同。

1990年左右,科学家突然发现其实没有必要模仿,更多的应该是去参考人脑,参考脑系统,做一个有更多机器思考、机器思维的计算机。

所以在当前这个时代,我们应该用更多的计算机思维,来做计算机的思考,而非人的思考。

因此在这之后,就出现了概率图模型、概率与因果模型以及深度学习。当然,有人会说,到最后你还在讲机器学习,在讲一个模型,这个离我们真正的认知智能是不是太远了?

声音 | 清华罗玫:数字货币的财税困境是没有会计准则:据星球日报消息,清华经管会计系博士生导师,数字金融资产研究中心主任罗玫今日在新区势区块链峰会上表示,现在有很多基金、矿池、交易所和项目方都有数字货币,但是因为目前没有针对数字货币的会计准则,因此不知道用什么来计量,但实践中又有这样的需求。比如上市必须对数字货币做出计量,交易所想要去香港或者国外公开发行,也要做数字货币计量。因此她认为,与数字货币相关的会计、税务上的更新是一个很重要但比较漫长的过程。[2018/11/28]

用计算的方式打造通用人工智能

过去几年连我自己都不信,我们可以建造一个通用人工智能,让计算机系统甚至能够超越人。

举一个例子,OpenAI。

两年前,OpenAI做了**GPT,所有人都觉得只是一个很简单的语言模型,并不会有什么水花;

去年,GPT升级成GPT-2,15亿的参数规模。很多人都可能玩过它的Demo,叫talktotransformer。你可以输入任何文本,transformer帮你把文本补齐。

但在今年6月份的时候,OpenAI发布了一个GPT-3,参数规模一下子达到了1750亿,数量级接近人类的神经元的数量。

这个时候给我们带来了极大的震撼,至少说明GPT-3的表示能力已经接近人类了。

意味着理论上,如果我们能让计算机参数达到最好,GPT-3可能跟人这种智商表现差不多。

这时候给我们另外一个启示:

我们到底是不是可以直接通过计算机的结果,也就是计算的方法得到一个超越人类的通用人工智能?

我们来看一下整个模型过去几年发展的结果,几乎每年参数规模是10倍左右的增长,右边的图给出了自然语言处理中最近几年的快速变化,几乎是一个指数级的变化。

可以看到,前几年变化相对比较小,今年出了GPT-3,谷歌到了6000亿的产出规模,明年ds可能还会到万亿级别。所以这是一个非常快速的增长。

现在,则给到我们另外一个问题,

声音 | 清华教授王小云:区块链技术目前存在过度应用问题:据正义网消息,全国人大社会建设委员会委员、中国科学院院士、清华大学教授王小云表示,区块链技术本身的应用是非常好的,但是目前存在过度应用问题。她指出,如果不太清楚区块链工作机理容易引发网络和行业不法行为,要通过技术手段来防范犯罪发生,注重对网络安全、个人隐私、企业数据和办案数据的技术保障。[2018/11/19]

我们到底能不能用这种大规模、大算力的方法,大计算的方法,来实现真正的人工智能呢?

与此同时,也暴露出另一个痛点——成本问题。

GPT-3,如果用单卡的训练需要355年,整个训练成本将达到几亿人民币,一般的公司是做不起来的。

但就算是有互联网巨头愿意去做,大家是不是都可以用了?

GPT-3有个阿喀琉斯之踵

不着急。先来看看这样一个例子,左边是GPT-3模型,右边是结果。

第一个是长颈鹿有几个眼睛?GPT3说有两个眼睛,没有问题。

第二个问题,我的脚有几个眼睛?结果是也有两个眼睛,这就错了。

第三个,蜘蛛有几个眼睛?8个眼睛。

第四个太阳有几个眼睛?一个眼睛。

最后一个问题,一根草有几个眼睛?一个眼睛。

可以看到,GPT3很聪明,可以生成所有的结果,但它有个阿喀琉斯之踵——没有常识。

这时候就需要一个常识的知识图谱。

2012年,谷歌发出了一个KnowledgeGraph,就是知识图谱。

当时的概念是,我们利用大量的数据能不能建一个图谱?于是在未来的搜索中,可以自动把搜索结果结构化,自动的结构化的数据反馈出来。

金色财经现场报道 清华经管学院中国金融研究中心主任何平:区块链价值主要有两个:金色财经现场报道,在清华大学区块链教育、产业创新峰会?暨青藤链盟成立大会上,清华经管学院中国金融研究中心主任何平表示,区块链价值主要有两个,一个是增强安全性与互信,减少欺诈。第二个是促进多方交易中的透明度和效率。这两个特点让区块链技术适合那些被低效率拖累的企业转型,也适合为基于分布式市场和技术的新商业模型赋能。[2018/5/27]

知识图谱不仅可以应用到搜索引擎,还可以给计算机带来一些常识性的知识。

因此,我们是否可以通过这一方法来帮助未来的计算呢?

「数据+知识」驱动未来的认知AI

其实,知识图谱在很多年前就已经发展起来。

从第一代人工智能——符号AI的时候,就已经开始在做,当时将知识图谱定义为“符号AI的逻辑表示”。

但到现在也还没有大规模的发展起来,主要有几个方面的原因。

第一,构建的成本非常的高。

CYC,最早的知识图谱之一,负责定义知识断言。

简单来说就是,一个ABC三元组,A就是主体,B就是关系,C是受体。

比如,人有手,人就是主体,有就是关系,手就是受体。

这么一个简单的问题,成本就在5.7美元。

第二,自动构建精度很低。

另一个典型的知识图谱NELL,互联网完全自动方法的生成出来,但错误率一下子提高到10倍。

这两个项目目前基本上都处于半停滞状态。

于是,我们现在就在思考,若是将上述两种方式结合在一起,是否能够驱动认知AI?

第一,从大数据的角度,做数据驱动。用深度学习举十反一的方法,把所有的数据进行建模,并且学习数据之间的关联关系,学习数据的记忆模型。

第二,我们要用知识驱动,构建一个知识图谱,用知识驱动整个事情。

我们把两者结合起来,这也许是解决未来认知AI的一个关键。

当然这些也还不够。我们的未来是需要构建一个真正能够超越原来的、已有模型的一个认知模型。

我们需要一个全新的架构框架,也需要一个全新的目标函数,这时候才有可能超过这样的预训练模型,否则就是在跟随GPT-3。

而放在眼下要做的,就是让机器有一定的创造能力,光文本还不够,我们希望创造出真正的图片,它是创造,不是查询。

比如,机器可以通过文字,将原有的图片生成新的图片。

当然,光创造还不够,我们离真正通用的人工智能还有多远?

我们希望真正的通用人工智能有持续学习的能力,能够从已有的事实,从反馈中学习到新的东西,能够完成一些更加复杂的任务。

认知AI的九准则

这时候,再回到起初最基本的问题:什么叫认知?

只要有可持续学习的能力就是认知吗?

如果这样的话,GPT-3也有持续学习的能力,知识图谱也有学习的能力,因为它在不停的更新。

如果能完成一些复杂任务就是认知吗?

也不是,我们已经有些系统已经可以完成非常复杂的问题。

那什么是认知呢?

最近,通过我们的一些思考,定义了认知AI的九准则。这九个准则是我从人的认知和意识中抽象出来的九个准则。

第一个,叫适应与学习能力。

比如说今天MEET大会,机器人自动学习,可以知道在这个特定的场景下应该做什么事情。

第二个,叫定义与语境能力。

模型能够在特定语境下感知上下文,对环境有一定的感知能力。

第三个,叫自我系统的准入能力。

机器能够自定义什么是我,什么是非我,这叫人设。如果这个机器能知道自己的人设是什么,那么我们认为它有一定的认知能力。

第四个,优先级与访问控制能力。

在一定的特定场景下它有选择的能力。我们人都可以在双十一选择购物,如果机器在双十一的时候能选择我今天想买点东西,明天后悔了,不应该买。

这时候机器有一定的优先级和访问控制。

第五个,召集与控制能力。这个机器应该有统计和决策的能力。

第六个,决策与执行能力,机器人在感知到所有的数据以后可以做决策。

第七个,错误探测与编辑能力。

这个非常重要,人类的很多知识都在试错中发现的。比如现在学的很多知识,我们并不知道什么知识是最好的。

我们需要不停的试错,也许我们今天学到了1+1=2是很好,但是你尝试1+1=3,1+1=0,是不是也可以呢?你尝试完了发现都不对,这叫做错误探测与编辑,让机器具有这个能力,非常地重要。

第八个,反思与自我控制、自我监控。

如果这个机器人在跟你聊天的过程中,聊了很久,说“不好意思我昨天跟你说的一句话说错了,我今天纠正了。”这时候机器具有反思能力。

最后,这个机器一定要有条理和理性。

一个面向认知的AI架构

在九个准则的基础上,我们提出了一个全新的认知图谱的概念。

主要有三个核心要素。

第一个,常识图谱,这与知识图谱的几个要素非常相关。比如说高精度知识图谱的构建、领域知识图谱的应用系统、超大规模知识图谱的构建,还有基于知识图谱的搜索和推荐,这是传统的一些东西。

第二个,逻辑生成。这需要超大规模的预训练模型,并且能够自动进行内容生成。同时我们在未来可以构建一个数字人的系统,它能够自动的在系统中,能够生成相关的东西,能够做得像人一样的数字人。

第三个,认知推理。让计算机有推理、有逻辑的能力。

这时候说起来比较虚,用人的认知来通俗理解一下。

人的认知有两个系统,一个叫系统1,一个叫系统2。

系统1就是计算机做的匹配。

你说,清华大学在哪?它便立刻匹配出来北京。

但如果你要是问,清华大学在全球计算机里到底排第几?以及为什么是这个名次?

这时候计算机就回答不了,这就需要一定的逻辑推理,也就是系统2所做的事情。

当前所有的深度学习都是做系统1,解决了系统1问题——直觉认知,而不是逻辑认知。

因此在未来,我们要做更多关于系统2的事情。

从脑科学来看,相对现在做的事情有两个最大的不同,第一,就是记忆,第二就是认知推理。

记忆是通过海马体实现,认知是前额叶来实现。这两个系统非常关键,如何实现呢?

我们看记忆模型,巴德利记忆模型分三层,短期记忆就是一个超级大的大数据模型。

在大数据模型中,我们怎么把大数据模型中有些信息变成一个长期记忆变成我们知识,这就是记忆模型要做的事情。

那认知模型呢?我们构建了一个面向认知的AI架构。

这个框架左边是一个查询接口,这是输入,也可以说成是用户端。

中间是一个超大规模的预训练模型,然后是一个记忆模型。

记忆模型通过试错、蒸馏,把一些信息变成一个长期记忆存在长期记忆模型中。

长期记忆模型中会做无意识的探测,也会做很多自我定义和条理的逻辑,并且做一些认知的推理。

在这样的基础上我们构建一个平台。最终目标是打造一个知识和认知推理双轮驱动的一个框架。底层是分布式的存储和管理,中间是推理、决策、预测,再上面是提供各式各样的API。

好,我今天大概就把我们的理念和想法给大家介绍一下,如果大家有兴趣的话,可以查阅我们更多的信息。

谢谢大家!

标签:GPT人工智能MEETGPT价格GPT币人工智能技术应用学人工智能后悔死了人工智能考研考哪些科目MEET价格MEET币

火币网下载官方app热门资讯
NGA:3分钟看车圈:最便宜特斯拉要来中国?折合人民币十多万

「路咖快评」每天3分钟,评遍车圈大小事,快人快语,新鲜麻辣折合人民币16万左右?特斯拉要在中国推新车有消息说,特斯拉要为中国打造一款特供车型,新车可能在今年下半年亮相,明年量产.

1900/1/1 0:00:00
比特币:比特币价格突破4万美元后开始暴跌,开始割韭菜了

近期比特币价格暴涨,不仅仅超出了2018年初创下的2万美金价位,近期二天更加是一举击破4万美元,总市值超出了7000亿美元,快变成全球性第5大货币了.

1900/1/1 0:00:00
RMB:美国的钱在中国叫“美金”,那人民币走出国门,在国外叫什么?

此后,随着时代的发展,由于金银这两种物质稳定,不会因为环境以及气候的变化而发生转变,能够最大程度地保全财产的价值。因此,人们逐渐开始使用金和银,并且也成为了当时世界各国都流行的货币方式.

1900/1/1 0:00:00
BTC:交行客户信息被以8.8比特币贩卖?回应已报案:非客户真实信息

新京报贝壳财经讯针对近期交通银行疑似客户信息泄露一事,交行今日发表回应称,不存在黑客入侵,不存在客户信息泄露,并已向部门报案.

1900/1/1 0:00:00
TOP:2021年中国生物医药行业产业链图谱上中下游剖析

中商情报网讯:生物药是指综合利用微生物学、化学、生物化学、生物技术、药学等科学的原理和方法制造的一类用于预防、治疗和诊断的制品,包括单克隆抗体、重组蛋白、疫苗及基因和细胞治疗药物等.

1900/1/1 0:00:00
数字货币:小鱼社区:什么是比特币合约?

从2013年OKEX首次推出比特币交割合约,数字货币交易市场迎来巨大的转变,一时风头无限,无数投资者涌入比特币合约市场,给OKEX累积了大量用户和资本.

1900/1/1 0:00:00