本期观点摘要:
1.ChatGPT等AI应用服务商直接面向个人提供服务,收集并处理个人信息,可被视为个人信息保护合规主体——数据控制者。
2.与移动互联网APP的典型场景相比,生成式AI服务商的个人信息处理活动有其自身特征,数据合规重点也有所不同。
3.根据GDPR,欧盟数据保护机构是监管机构,而非市场准入机构,其职责主要在指导督促企业满足数据合规要求。
4.未来真正的挑战来自于AI赋能的各类应用服务,解决新的数据安全问题需要新思维。
C端AI应用服务商是
数据控制者
并非所有的市场主体都是数据合规框架下的义务主体,需要根据技术原理、业务场景和法律规范来进一步确定。当主体身份重合时,也需基于不同业务流程匹配合规义务。基于此分析框架,我们在上一篇文章里详细论证了大模型研发者,在模型研发阶段有可能并不认定为隐私数据合规上的法律主体。
基于同样的分析框架,我们认为面向C端个人用户提供生成式AI服务的运营者可被认定为隐私数据合规上的数据控制者。例如,当OpenAI在2022年11年面向公众发布ChatGPT应用服务,并在2个月内突破1亿用户,成为历史上增长最快的消费者应用时,作为数据控制者的身份已确定无疑。
德意志银行与Memento Blockchain完成概念验证Project DAMA:金色财经报道,德意志银行与Memento Blockchain已成功完成概念验证,称为 Project DAMA(数字资产管理访问),可为数字基金管理和投资服务提供更高效、安全和灵活的解决方案。
DAMA 项目是德意志银行和 Memento Blockchain 的合作项目,于 2022 年 8 月 5 日获得新加坡金融管理局 (MAS) 金融部门技术创新 (FSTI) 概念验证 (POC) 资助,旨在应对与区块链相关的无数挑战启动或访问数字资金包括高成本和耗时的过程。[2023/2/21 12:19:43]
事实也如此。从国外实践看,目前已面向个人的AI应用服务商,在数据合规部分已完整配置隐私政策和用户协议,以充分告知用户收集了哪些类型的数据,以及如何处理数据。OpenAI在隐私政策中列举了收集类型;包括账户信息、通信内容、使用记录等;数据处理的目的包括但不限于:提供、改进服务,预防欺诈,网络信息安全、履行法定义务所需等。类似的,面向公众的图片生成AI服务商Midjourney也提供了清晰明了的隐私政策。国内目前虽然没有正式上线的产品,但已有部分厂商在测试版本中嵌入隐私政策。
?ChatGPT昨日晚间因满负荷运行暂停服务,目前已恢复:2月8日消息,昨日晚间,登录ChatGPT官方网站发现,该网站首页出现了提示称其“已经满负荷了”。ChatGPT在官网表示,许多人在“最近一小时内蜂拥而至我们的网站,但我们的(网络)资源是有限制的。” 截至发稿时,登陆ChatGPT官网,发现已恢复正常。[2023/2/8 11:54:02]
这也就不难解释为什么数据保护机构DPA是第一批入场的监管机构。3月31日,意大利数据监管机构Garante宣布暂时禁止ChatGPT,并要求OpenAI在20天内相关问题作出回应。这是数据监管机构DPA对一项新兴应用的正常反映,但被误读为DPA可以对特定业务采取永久性措施。相反,根据欧盟GDPR,DPA虽然有天价处罚权,但其职权被严格限制在矫正性权力范围内,包括建议,警告以及暂时性的或者具有明确期限的禁令。换言之,只要服务提供者满足数据合规要求,则DPA不得对其采取市场禁入措施。在其临时禁止令受到广泛批评后,4月12日,Garante释放信号:“如果OpenAI采取有效措施,我们准备在4月30日重新开放ChatGPT”。
生成式AI服务商
数据合规的独特性
Celer与Rango Exchange合作,集成cBridge以进一步提高区块链互操作性:12月24日消息,Layer2扩容平台CelerNetwork宣布与多链DEX聚合器RangoExchange达成合作,在RangoExchange上成功集成cBridgeSDK。通过此次合作,双方将共同致力于为RangoExchange用户提供无缝高效的跨链操作体验,进一步提高RangoExchange的区块链互操作性。
cBridge是一个支持高速低成本的跨链支付网络。用户可以通过该网络在任何以太坊Layer2、以太坊主网及其他的Layer1或Layer2网络之内或之间进行完全非托管、高速低成本的价值转移。
RangoExchange是先进的多链DEX聚合器,支持BTC、ETH、BSC、Polygon、Terra等资产的多合一交易。它通过直观的UX界面,将多个聚合器与多个X-Chain解决方案集成在一起,在安全且易于使用的解决方案中提供最佳流动性和优化路径。[2021/12/24 8:02:28]
与移动互联网相比,面向个人的生成式AI应用在数据合规上有很多相似之处,包括制定隐私政策、业务协议,明确处理用户数据的合法性基础,通过隐私保护设计在信息系统中支持用户围绕其账户信息和使用服务过程中产生的个人信息的相关权利,包括查询、访问、更正、删除等。但一方面,我们更加关注其在个人信息处理活动中的独特性:
THORChain通过2次安全审计,现已恢复运行:跨链流动性协议THORChain已在夏季的两次攻击事件后完成了2次安全审计,分别由网络安全公司Trail of Bits和Halborn进行,这将使THORChain得以实施一项五步恢复计划。THORChain的贡献者表示,在重启所有主要加密货币集成和跨链交易功能后,该协议已经全面运行。除了审计之外,THORChain还宣布,已经委托漏洞赏金平台Immunefi实施一项赏金计划来识别新漏洞。(Cointelegraph)[2021/10/29 21:06:45]
第一、收集的个人信息种类相对较少。导航软件、打车、购物等典型的移动APP为实现对用户个性化服务的闭环,需要实时收集用户较多类型的个人信息;而目前的生成式AI应用,以OpenAI和Midjourney为例,从其底层逻辑出发,其更加关注生成内容的质量,在应用服务阶段收集个人信息主要是建立用户账户体系,接受用户指令并与之交互,因此收集的个人信息相对较少,包括账户信息、使用记录,如果涉及购买服务等交易,则还包括支付信息。因此,Midjourney更是以表格的形式,明确列出了不收集的用户信息种类:包括用户敏感信息,生物识别信息、地理位置信息等等。这些信息对于生成式AI应用确实也无关紧要。
链上ChainUP推出新版合约云系统:据官方消息,链上ChainUP推出新版合约云系统,助力客户快速、低成本、灵活的接入合约交易系统。本次合约云系统主要服务于拥有自己的用户、交易系统、钱包系统,想要快速接入合约,并且希望节约系统日常运行及维护成本的B端客户。
链上ChainUP合约云系统性能稳定可靠,建立了系统、产品、资金等多维度风控安全体系且无需客户自己做市即可享受优质的流动性服务。
链上ChainUP区块链技术服务商,成立于2017年,总部位于新加坡。 截止目前,链上ChainUP已为全球600多家客户提供了区块链技术服务,覆盖全球五大洲,30多个国家和地区,累计触达6000多万全球用户。在非小号排名前100的交易所中,链上ChainUP的客户占比超过30%。[2021/3/1 18:03:26]
第二、在更早阶段以及更广泛地采取个人信息去标识化以及匿名化措施。在提供服务过程中,生成式AI主要围绕用户账号体系及通信内容构建数据安全防护体系。以ChatGPT为例,尽管在模型训练阶段,其采集的数据源中的用户个人信息较少,但在应用服务阶段,问答式的会话功能会产生较为敏感的通信内容,模型根据与用户通信内容进一步分析并生成回复。为降低用户通信内容泄露后产生的风险,生成式AI会在更早阶段采取用户身份信息去标识化及匿名技术,或者将用户身份信息与通信内容相互分离,或者在模型生成回复内容后及时删除通信内容等安全类措施。这也是由生成式AI更关注反馈内容,而非用户行为的逻辑所决定,这与建立在用户行为特征基础上,以个性化推荐见长的移动APP有显著差异。
第三、由以上两方面影响,生成式AI与移动APP在数据安全的风险领域有所不同。移动互联网APP需要直接收集大量个人信息,用户数据库易成为黑客攻击和数据泄露的目标。然而,在生成式AI应用中,虽然其直接收集的用户信息种类少,但其风险集中在模型被攻击从而反向溯源数据库,以及用户通信内容泄露的隐患。意大利数据监管机构对OpenAI发出暂时禁令,即是由于用户通信内容因出现服务bug而泄露的事故。为减轻风险,在技术上已经明显具备先发优势的OpenAI,开始探索支持用户可以选择将个人删除通信记录。4月23日,OpenAI推出新控件,允许ChatGPT用户可以选择关闭其聊天历史记录,且可以不用于模型训练目的。
第四、在输出阶段,如果用户引导的问题涉及个人信息时,基于大模型的语言预测生成的算法逻辑,输出结果中的个人信息有可能是编造的,虚假的,这可能违反了个人信息保护法上的信息质量原则,即保持个人信息准确性要求。但这类问题的背后实质是生成式AI在内容治理中面临的一般性问题,即AI进入“幻想”,编造不准确甚至是虚假的信息。
OpenAI在研发阶段,即致力于改善和解决此类问题,包括引入人类专家意见反馈机制和强化学习,引导AI输出准确内容。目前,部分生成类AI还加入了输入+输出双重过滤机制,来进一步避免出现有害内容或侵权问题。尽管大语言模型的进步速度令人瞠目结舌,仅用了4个月,ChatGPT4相比于GPT3.5,其输出信息的准确率就大幅提升了40%,违反内容政策的输出可能性降低82%,但目前仍不能保证其生成内容具有可靠的准确性。因此作为用户也应当对ChatGPT的回答保持一定警惕和判断力,避免被误导。
综上,看待生成式AI的数据合规问题,需要从移动互联网服务中的数据合规惯性中跳脱出来,围绕其在隐私和数据安全方面的不同特点,有的放矢采取相应的合规和安全保护措施。
面向未来的挑战:
前所未有的数据汇聚
基于大语言模型的生成式AI为世人所瞩目,不在内容生成,而在其所具有的通用人工智能潜力,业界惊呼:AGI的奇点时刻正在到来。未来,除了面向普通大众的内容生成式AI应用外,业界普遍认为AI也将改写互联网范式。现有商业模式将广泛引入AI智能模型,大幅提升用户交互效率。这不是将来时,而是进行时。2023年3月17日,微软发布Microsoft365Copilot,将大语言模型功能与微软办公应用相结合,帮助用户解锁生产力。
Copilot将会被内置到办公全家桶内,在Word、Excel、PowerPoint中,AI将与个人通过便捷的语言交互,一起撰写文档,演示文稿,实现数据可视化;在Outlook,Teams,BusinessChat中,AI能够帮助用户回复邮件,管理邮箱,实时完成会议摘要和待办事项,提高会议效率。
办公效率的飞越提升,不仅建立在强大的AI模型能力基础之上,更建立在广泛的数据打通链接基础之上,使用Copilot意味着用户将授权微软打通跨越各业务平台的个人数据。正如微软隐私政策所陈述,为实现业务提供,改进和开发产品等目的,微软会从不同的业务环境中收集的数据进行合并。
这只是未来超级数字助理的雏形,在智能基础设施的支持之下,每个人甚至可以拥有多个数字分身,协同完成任务。可以想见,数字助理的背后是大语言模型访问、链接个人以及商业企业的私有数据,数据的融合利用一定是无缝丝滑的。此类数据的访问处理如何以安全、合规、保护隐私的方式进行,对安全技术保障措施提出了更高要求。
图:MicrosoftGraph是Microsoft365中数据和智能的网关。它提供了统一的可编程性模型,以安全便捷地跨业务平台访问数据。
同时,我们也迫切需要审视现有的隐私保护与合规机制。在当前移动互联网个人信息保护实践中,对于必要性原则解释是非常严苛的,以最大程度的避免数据收集与汇聚。例如:《常见类型移动互联网应用程序必要个人信息范围规定》不仅针对每类应用区分了基本功能和附加功能,还针对基本功能收集的必要信息进行了明确。在大部分基本功能中仅能收集两三类个人信息,例如定位和导航功能仅能收集位置信息、出发地、到达地三种信息;《App违法违规收集使用个人信息行为认定方法》中更是明确:不得仅以改善服务质量、研发新产品等理由收集个人信息。这种基于“严防死守”的数据合规思路在未来的AI应用场景中是否还能继续走下去,是一个值得探讨的问题。
从移动互联网到我们正在步入的AI时代,虽然数据利用一直在向更广更深的方向发展,但各类新技术应用仍将隐私保护作为价值对齐的重要方面。隐私和数据安全的真谛从来也不是对数据的使用进行各种限制,或者人为增加数据利用门槛,而在于通过激烈的市场竞争、健全的法律机制和更加强大的技术安全措施来切实保障用户隐私与数据安全。
模块化区块链正在改变我们思考和建设去中心化应用程序的方式。为什么要关注模块化区块链?为什么这次会有所不同?我们可以写上一整本书来讲述模块化区块链的妙处,但大多数人都没有时间能够读完一整本书,所以.
1900/1/1 0:00:00引言 2014年以太坊的联合创始人GavinWood提出了一个概念,是从现有互联网的去中心化和民主化视角出发.
1900/1/1 0:00:00在StarkWare欣欣向荣的StarkNet生态系统,已有105个项目。我们很好奇这些项目都是什么类型的,于是我们做了一些调查。现在,让我们来深入了解下@StarkNet生态系统的项目类型.
1900/1/1 0:00:00都感觉Intent-centric是一个宏大的叙事,尤其是AI人工智能加持下,Intent-based生态似乎总有喷薄欲出,掀起下一轮牛市的全民憧憬“爽感”.
1900/1/1 0:00:00加密世界一直不愿将广告作为一种商业模式。广告通常会让众多互联网消费者产生不好的联想。Web2科技巨头榨取用户数据,并以超精准定向广告的形式回馈我们.
1900/1/1 0:00:00我和来自Socket的VaibhavChellani想要提议一个用来评估不同桥接架构安全概况的风险架构.
1900/1/1 0:00:00