ChatGPT引发的AI监管问题思考与建议

作者:杨庆丰 邹昭 施宇 责任编辑:包建羽 2023.03.07 07:34 来源:天翼智库

ChatGPT3.5 推动AI从被动执行指令进入主动理解和生成的新发展阶段,似乎让我们看到了从“弱人工智能”跨向“强人工智能”的曙光,AI奇点时刻近在眼前。面临AI新纪元,全球科技巨头纷纷布局,积极拥抱新的智能时代。然而,如同曾经的互联网时代一样,此时的AI时代同样面临着诸多风险,包括数据隐私和安全、版权保护等风险。特别是进入强人工智能时代,社会伦理道德风险将会更加突出,它可能比我们以前任何一个技术革命时代所面临的风险都强烈和复杂。然而,未来已来,将至已至,以变应变方为上策。建议监管机构以包容审慎的监管理念,在既有监管体系下积极监控新风险,管控固有风险,营造良好的AI产业政策环境,让完善的监管体系助力AI腾飞,在全球高科技竞争中取得领先地位。

ChatGPT3.5 开创AI新纪元,

成为全球性关注热点

ChatGPT拥有强大的语言理解和文本生成能力,能很好地支持聊天对话、代码撰写、文案创作等任务,被称为迄今为止最先进的自然语言处理工具之一。

• CNBC报道,谷歌认为ChatGPT在面试谷歌L3级别工程师的职位时会被成功录用,这代表着ChatGPT 已经拥有了L3级工程师的代码能力。

• 发表在《公共科学图书馆·数字健康》杂志上的一项研究显示,ChatGPT能够在美国医学执照考试(USMLE)中达到或接近60%的通过门槛。

• 360周鸿祎认为ChatGPT是强人工智能的拐点,有可能成为新时代的操作系统,成为数字化的“发电厂”,以SaaS服务的方式接入到千行百业,所有数字化系统和各个行业都值得用ChatGPT重做一遍。

• 雷军认为机器人产业正值升级换代、跨越发展的窗口机遇期,其中仿生人形机器人将有力带动新一代信息技术、高端制造、新能源、新材料等产业集聚发展,成为社会经济发展和国际科技竞争的战略制高点。

• 马斯克认为ChatGPT非常好,我们离危险的强大人工智能不远了,并预测未来AI 人形机器人的数量会超过人类。

• 比尔·盖茨认为ChatGPT和个人电脑、互联网的出现一样重要,人工智能将是这十年中最大的事情,将改变我们的世界,未来人人都将拥有一个 AI助理,科技巨头各自为营提供服务的藩篱将被打破,谷歌占据搜索,亚马逊占据购物,微软占据办公服务,而苹果几乎拥有苹果设备上的一切。但是一旦你有了个人助理,就会把这些独立的市场整合成一个个人助理,它可以在各种设备上帮助我购物、做计划、撰写文件。

全球进入新一轮以AI为核心的科技竞赛,众多大型科技巨头纷纷加大AI布局力度,推出类似ChatGPT的竞品。

• 谷歌基于自己开发的大模型 LaMDA,推出对标 ChatGPT 的对话机器人Bard,参数量最高达 1370 亿,在多个维度接近人类水平。

• 微软表示未来所有产品将全线整合 ChatGPT,目前已推出引入 ChatGPT 技术的搜索引擎 New Bing。

• 百度计划3月将推出聊天机器人“文心一言”(ERNIE Bot),目前生态合作伙伴近300家。

• 京东云旗下言犀人工智能应用平台宣布将推出产业版 ChatGPT:ChatJD。

面对这一波AI躁动,有人将ChatGPT(基于GPT3.5模型)视为又一个“iPhone时刻”,其本质就是一次重要的商业变革。还有人认为ChatGPT这种生成式AI是新的通用技术(GPT—general purpose technology),类比蒸汽、电力、计算机的划时代地位,将会引发新一轮生产力革命。我们认为,ChatGPT会实现多种可能,是人工智能发展史上的划时代产品,它可能助推人工智能跨过 “弱人工智能”进入 “强人工智能”阶段,开创AI新纪元,也许不久的未来,意识上传已经悄然开始,文明延续也许有了新的路径。

ChatGPT作为新生事物

引发诸多风险

ChatGPT作为一款先进的聊天机器人,在为人们带来更便捷的生活和工作方式的同时,也引发了一系列问题。ChatGPT从数据获取、汇聚、加工处理到运算结果输出的全流程中各个环节都存在数据安全及法律风险问题,这些问题包括既包括原有互联网及弱人工智能时代存在的数据隐私和安全、版权保护等问题,也带来强人工智能引发的社会伦理道德新风险。

一、互联网固有的风险

1. 数据隐私和安全风险

ChatGPT强大的功能对黑客具有很大吸引力,不法分子对ChatGPT的恶意利用会带来数据隐私、钓鱼邮件,恶意软件、身份盗用等网信安全问题。

一是在企业数据隐私方面,企业员工在使用ChatGPT辅助工作时,可能会泄露敏感数据、商业秘密甚至是机密信息,而数据一旦输入,就会被收集和使用,不能删除和修改,导致ChatGPT可能会获取到企业从未公开披露的机密。亚马逊的公司律师称,他们在ChatGPT生成的内容中发现了与公司机密“非常相似”的文本,可能是由于员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息。埃森哲、微软、摩根大通等企业已警告其员工不要与ChatGPT等聊天机器人分享机密信息。

二是个人数据隐私方面,在与ChatGPT聊天的过程中,ChatGPT通过用户输入的信息,收集和分析用户的语言数据,这些语言数据包含用户的兴趣爱好、思想倾向、生活习惯等隐私信息。如果这些信息被不当使用或泄露,将会对用户的隐私造成严重威胁。同时,ChatGPT使用了RLHF的训练方法,这意味着用户使用过程中的交互信息可能会用于其持续迭代训练,因此用户的输入信息可能被用于为其他用户提供服务,构成不合规的数据共享问题。

三是ChatGPT的自然语言生成功能可以被用于创建钓鱼邮件。ChatGPT可以非常真实流畅的模仿人类写作,且基本没有拼写和语法错误。黑客可以利用ChatGPT的这一特点来创建伪造的网站、邮件和消息,模拟真实的企业或机构,从而诱骗用户提供敏感信息。安全机构Check Point Research在近期发表的报告中表示已经在地下论坛发现有黑客试图绕过限制将ChatGPT用于生成钓鱼邮件等内容的行为。

四是ChatGPT降低了恶意软件的开发门槛。借助ChatGPT,黑客甚至不需要编码就可以生成一个恶意软件的数十万次迭代。ChatGPT极大地降低了黑客的技术能力门槛,从一定程度上加速恶意软件的开发,提高漏洞利用的可能性和速度。据报道,美国网络安全公司Recorded Future在暗网的不同论坛中,发现了15000多份以ChatGPT为基础,解释如何开发相应的恶意软件的参考资料。

五是ChatGPT提高了网络防御的难度。借助ChatGPT,黑客能够能开发出安全人员极难识别的恶意软件,提高网络攻击的有效性。CyberArk的研究结果显示,ChatGPT可以生成多态恶意软件,同时可用于以高级方式帮助恶意软件程序开发,包括利用开源存储库中发现的恶意软件代码训练ChatGPT,以生成该代码的独特变体,从而逃避反病毒检测机制。

六是ChatGPT增加了身份盗用风险。不法分子可以利用ChatGPT强大的类人说话和行为方式模仿、自然语言编写能力,冒充真实的人或者组织骗取他人信息、实施身份盗用等,进一步助长网络诈骗等违法犯罪行为的发生。

2. 版权保护问题

ChatGPT主要依赖现有素材,可能产生版权纠纷问题,同时生成内容版权的认定也存在争议。ChatGPT可以被用来生成各种类型的文本内容,如论文、小说等,其中包括受到著作权法保护的作品。然而,如果这些内容没有经过权利主体的授权就被使用或传播,极可能侵害他人的著作权。目前ChatGPT已经遭到了教育系统不同程度的“封杀”,多国学生被禁止使用ChatGPT,一些期刊不接受任何大型语言模型工具单独或联合署名。香港大学向其师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,否则将被校方视为剽窃。《暨南学报(哲学社会科学版)》在关于使用人工智能写作工具的说明提到,暂不接受ChatGPT等任何大型语言模型工具单独或联合署名的文章。

二、“强”人工智能引发的新风险

ChatGPT虽然还称不上是“强人工智能”,其具有强大的主动理解和内容生产能力,将会给社会带来违法违规、社会规范失序和伦理道德新风险。

一是ChatGPT可能会出现无法预测的行为,甚至可能与人类的价值观相违背。据外媒报道,一位名叫扎克·德纳姆(Zac Denham)的博主曾尝试让ChatGPT写出了一套毁灭人类的方案,最终给出了步骤细节,包括入侵各国计算机系统、控制武器、破坏通信和交通系统等,甚至生成了相应的代码。

微信图片_20230307073554.png

图1 ChatGPT聊天对话截图

二是ChatGPT可能形成“错误权威”,存在误导大众的嫌疑,在回答非公开内容或抽象概念时,ChatGPT提供的答案看起来十分具有逻辑性但无法提供信息来源和渠道,难以判断其内容准确性。近期,杭州某小区业主尝试用ChatGPT撰写杭州取消限行的新闻稿,并把ChatGPT编造的不实新闻在微信群中传播,造成了一定的不良社会影响。

三是ChatGPT可能会替代人类的工作、决策和管理,从而对社会产生深远的影响。ChatGPT会在一定程度上取代人工劳动力,导致人工劳动力需求的降低。与传统人工智能产品不同,ChatGPT等生成式AI表现出了更强的创造性,使得人工智能从人类的辅助工具转变为职业竞争者。ChatGPT有着更强大的计算与分析能力,可能会重塑人类劳动形式。如果不能有效平衡技术的发展与人类的福祉,甚至可能引发新一轮的“卢德运动”。创新工场创始人李开复曾表示,以ChatGPT为代表的人工智能技术,将代替越来越多人的工作,或引起失业恐慌。

四是ChatGPT可能会存在偏见与歧视,使社会不公现象更加严重。ChatGPT的训练数据中存在的偏见会导致生成的回答或建议也存在偏见和歧视,严重影响未成年人或不具有判断能力的人。此类偏见数据包括性别、种族、宗教信仰、文化背景、性取向等多个方面,会对用户造成伤害甚至加剧社会不平等现象。尽管数据清洗者可以过滤出大部分偏执的内容,但仍然无法保证ChatGPT的数据集是完全公正、客观和中立。

以包容审慎的监管理念

营造良好AI产业政策环境

针对ChatGPT引发的各类风险,全球监管机构存在两大监管阵营。

一是以欧盟为代表的强监管阵营,其在数据保护和隐私上最为保守,计划更新即将出台的全面人工智能法规——《人工智能法案》,对生成式AI生成图像和文本的智能模型制定限制性规则,同时,欧洲数据保护委员会发出质疑,称ChatGPT作为商业产品,利用网络信息自我迭代,应不属于合理使用范畴,且采用用户个人数据参与模型训练,不符合欧盟颁布的《一般数据保护条例(GDPR)》。

二是以美国为代表的弱监管阵营,美国以引领全球科技创新为目标,早在2016年就制定《国家人工智能研发战略计划》,旨在通过政府投资深化对人工智能的认识和研究,确保美国在人工智能领域的全球领导地位,所以始终对创新技术应用持宽松监管态势,美国的政府机构特别强调对ChatGPT在伦理道德方面的监管,正在研究和制定针对ChatGPT的监管政策和指南,以确保ChatGPT的发展和应用符合法律法规和伦理标准。

对于我国来说,是强监管还是弱监管,应基于实际国情出发,制定适合我国社会环境、产业发展和科技创新的AI监管政策。回顾我国互联网产业发展历程与监管经验,在互联网及“互联网+”这类新技术新事物新业态的发展初期,明确提出“最大限度减少事前准入限制,加强事中事后监管”,对于暂时看不准其发展前景的业态和领域,鼓励大胆创新,并在一段时间内予以观察,这种包容审慎的监管理念极大推动了我国互联网产业的飞速发展。面对当前AI发展的新阶段,全球各国及科技巨头均跃跃欲试争夺AI领域的领导地位,建议以“包容审慎”监管理念进行政策制定和引导,在数据隐私和安全、版权保护方面沿用和完善现有监管体系进行规范,积极监控AI在社会伦理道德方面的新风险,加大大型科技企业在AI基础创新领域和生态能力开放的政策支持力度,为AI产业发展营造良好的外部政策环境,确保在全球新一轮以AI为核心的高科技竞争中取得领先地位。

通信世界网版权及免责声明:
1、凡本网注明“来源:通信世界全媒体”及标有原创的所有作品,版权均属于通信世界网。未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。
2、凡本网注明“来源:XXX(非通信世界网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。
发表评论请先登录
...
热点文章
    暂无内容