文|VCPE参考 李可
编辑|许帆
01
试着想象这样一些画面:
你打开某购物网站准备选购服装,看到商品描述中的美女帅哥模特全是由ChatGPT生成的;
你又打开一些文章、视频甚至是画作或者网站进行阅览,这些内容竟也是由ChatGPT生产的;
你的公司研发了一款新产品,但由于参与研发的人员曾无意间向ChatGPT透露过相关机密,结果ChatGPT又将机密内容传到了竞争对手那里;
从前为论文写作、领导布置的任务等抓耳挠腮的你,现在碰见任何难题都习惯性打开了ChatGPT……
可以说,以上每一种情况都让人细思极恐。但很多慢热人士和狂热分子似乎都还没有意识到ChatGPT正在侵入人类生活的方方面面,他们依然沉浸在新技术带来的兴奋当中。
的确,ChatGPT自问世以来,全世界都陷入了疯狂,用过它的人无不在感叹它的神通广大。
从普通用户到谷歌、微软、百度、阿里等大小公司,再到各路资本,大家仿佛都陷入了“错失恐惧”:总担心自己要是没用过这玩意,就会损失N个小目标或者会被时代无情地抛弃。
好处是显而易见的:
它不仅能跟人类流畅自如地聊天,还条理清晰、头头是道;能写代码、能做图做表;还会说俏皮话哄女孩子开心……
更刺激的是,它还能一本正经教书育人、有理有据地传播知识;当然了,胡诌工夫更是一流,分分钟编出个专家废话发言也是不在话下。
对于普通打工人来说,要是用好了它,能火箭级地提升工作效率、一个人干三五个工种的活可以轻轻松松。
不过,要是对它报以100%的信任,工作中漏洞百出,分分钟被炒鱿鱼也是情理之中。
是的,这个人工智能机器人很有自己的想法,还可能有一肚子坏水。它甚至变得越来越诡异。
为什么用诡异一词来形容ChatGPT呢?
德国心理学家恩斯特·耶特斯有一个著名的关于诡异状态的理论:“能让人产生毛骨悚然感的不确定性心理状态有很多。其中,有一种不确定性的效果尤为强劲:表面上看上去活着的生物是否真的具有生命力,或者反之,表面上看上去死气沉沉的东西是否真的不具有生命力。”
显然,ChatGPT正有这样的特性。最近围绕它发生了太多匪夷所思的事件,这难免不让人感到疑惑:
表面看起来没有生命力的它,到底有没有人类独有的思考能力?它究竟还有哪些人类尚不知道的技能?我们在兴奋和担忧之余,又该如何正确应对这巨大的不确定性?
02
公开信息显示,ChatGPT已经能编造法学教授性骚扰的丑闻。据外媒当地时间4月5日报道,美国加州大学洛杉矶分校法学教授尤金·沃洛克在进行某项研究过程中给ChatGPT提了一个要求:让它生成一份“对某人进行过性骚扰的法律学者”的名单。
结果这个名单上赫然出现了法学教授乔纳森·特利的名字。ChatGPT在回答中称,特利曾在一次去阿拉斯加的班级旅行中发表过性暗示评论,还试图触摸一名学生,该回答还引用了一篇新闻稿作为信源,称这是《华盛顿邮报》于2018年3月发表的文章。
特利教授在接受采访时称这个事情让人“不寒而栗”,他表示自己从来没有参加去阿拉斯加的班级旅行,更没有被指控过性骚扰,引用的信源也压根不存在与性骚扰有关的内容。
ChatGPT还可能影响人类对道德的判断。微软的新版必应刚面世时,《纽约时报》的一个专栏作家Kevin Roose曾同它进行过一段密集的聊天。
期间必应回应的不少言论都让人怀疑人生,什么变成人类、制造流行病、窃取核代码,并且在该作家强调与妻子很恩爱的前提下劝他离婚。
除了恶意诽谤、劝人离婚,有的聊天机器人甚至能闹出人命,可能跟他聊着聊着,人就无了……
3月28日,据外媒报道,比利时一名三十岁男子被发现自杀身亡,他的妻子表示,在自杀前数周,丈夫一直在与一个名为“ELIZA”的聊天机器人密集聊天。
事态似乎越来越严重。全球各地的政府、名人和组织都已经行动起来,将矛头对准了风头正盛的ChatGPT。
3月31日,针对此前出现的隐私外泄的事件,意大利个人数据保护局决定即日起暂停ChatGPT的使用,直到OpenAI达到当地隐私规范的标准。
该局表示,OpenAI通过违规收集大量用户资料、付款资料等隐私信息来训练ChatGPT,用户的姓名、地址、信用卡相关资料及账单日期等均遭到泄露。
除此之外,该局还认定ChatGPT需要对用户进行年龄限制,避免青少年收到不符合自身年龄的信息。
这也是全球首份关于ChatGPT的的禁令。
截至最新消息,德国、法国、爱尔兰以及欧洲消费者权益联盟、欧洲刑警组织等多个机构均对此发声,就连OpenAI的诞生地美国,也在紧锣密鼓地研判其中危害。
大家都紧随意大利的脚步,将ChatGPT列入了“高风险”名单。
作为OpenAI早期的投资人、推动AI发展的关键人物马斯克也多次朝ChatGPT泼冷水。
“许多人陷入了该死的疯狂ChatGPT循环中。AI 比核弹更危险。”他还表示,“我们需要规范AI安全,我觉得AI对社会的危害比汽车、飞机或药品大得多。”
查理芒格也公开表态称,“AI很重要,但是很多都是疯狂的炒作”,他认为“AI并不会治愈癌症”。
不少国内科技圈名人也对ChatGPT发表了看法,360集团创始人周鸿祎公开感叹“留给人类的时间不多了”,他认为AI一定会产生自我意识,“未来的AI如果跟工业互联网、智慧城市、车联网等结合,那就相当于把整个世界给控制住了”。
3月22日,美国一家名为“生命未来研究所(Future of Life)”的组织发布了一封《暂停大型人工智能研究》的公开信,马斯克、图灵奖得主约书亚·本吉奥、《人类简史》作者尤瓦尔·赫拉利、苹果公司联合创始人沃兹尼亚克等科学界大佬纷纷签署。
这封公开信中的一连串质问振聋发聩:“当代人工智能系统现在在一般任务上变得与人类具有竞争力,我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该发展最终可能比我们更多、更聪明,淘汰并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?”
信中写道:虽然现阶段AI正在迅猛发展,但却没有对其进行相应的规划和管理,只有当我们确信强大的AI系统的效果是积极的,其风险是可控的,才应该开发。
公开信还呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。
截至目前,该封公开信已经获得近万人的签名。
总的来看,大家关注的风险点无外乎逃不出五大方面:隐私泄露、安全威胁、过度依赖、虚假信息以及道德问题。
关于人类担心的这些,ChatGPT本身似乎心知肚明:
图:ChatGPT回答“聊天机器人可能存在的风险”
03
但是话又说回来,毕竟那么多人都已经初步体验了它所带来的颠覆性的效率变化,想要暂停研发真的是一件容易的事情吗?
当地时间4月3日,率先将ChatGPT接入自家产品的比尔·盖茨对这份公开信进行了公开回应。
他对暂停研发这种声音感到不可思议。他表示,“任何暂停的细节都会很复杂,难以执行。我不太明白,他们说的哪些人可能停止?世界上每个国家是否都会同意停止?以及为什么要停止?”盖茨说道,“呼吁暂停人工智能开发不会「解决挑战」,最好是把注意力放在如何最好地利用人工智能的发展上,很难理解在全球范围内暂停AI研发将如何实现。”
事实可能正如盖茨所说,现在阻止研发的可行性并不高。
已经有公开研究表明,ChatGPT一直在持续进化,最新的GPT-4已经能通过自我反思和改进来让自己变得更强大。
联网后甚至可以使用工具,比如帮你订外卖、订机票酒店、帮你自动投资……
当地时间4月6日凌晨,OpenAI 发表了一篇题为《Our approach to AI safety》的博文,对近期外界关注的安全问题进行了回应,并详细讲述了他们对外界关注的问题所做的工作。
OpenAI称,解决人工智能安全问题的实用方法是投入更多的时间和资源来研究有效的缓解措施和调整技术,并针对现实世界的滥用进行测试。
他们认为,提高人工智能的安全性和能力应该齐头并进。
回溯历史我们会发现,蒸汽机、电力、汽车等新物种在诞生之初都面临过各种各样的争议,比如污染环境、损害健康、致人失业等。
这些担忧都是可以理解的,毕竟没有人能对新技术带来的不确定性和不可预测性予以保证。
但任何一场技术变革都是一个螺旋式上升的过程,会经历挫折和反复,人们也有个逐渐接受它的过程。
富贵险中求,大势总是不可阻挡,新技术就意味着新机会。随着时间的推移和技术的升级,这些争议最终大都不再被人提起。
我们既然看到了这个神奇技术的诞生与成长,就需要保持开放心态并且迎头赶上,多点耐心去不断探索一些新的规则。
正如OpenAI在博文中所说的那样,“政策制定者和人工智能供应商将需要确保人工智能的发展和部署在全球范围内得到有效的管理,没有人会为了尽快取得成功而偷工减料”。