4.打开某一个微信组.点击右上角.往下拉."消息免打扰"选项.勾选"关闭".(也就是要把"群消息的提示保持在开启"的状态.这样才能触系统发底层接口.)
【央视新闻客户端】
近日,国家五部门联合发布的《人工智能拟人化互动服务管理暂行办法》明确规定:严禁向未成年人提供虚拟亲属 、虚拟伴侣等虚拟亲密关系服务。
为什么要有这样的规定?因为真实生活中免不了情感上的矛盾和冲突 ,而虚拟伴侣、AI 恋人等产品却可以凭借“全天候陪伴 ”“无条件包容 ”的特性,精准击中年轻人渴望认同的心理需求。
此前美国《科学》杂志发表的一项研究也显示,当人类用户向人工智能模型寻求建议时 ,AI常表现得过度迎合或谄媚,甚至对于一些有害甚至违法的提问,AI也常常肯定用户的立场 。
那么,人类为什么要这样设计人工智能?AI的讨好和谄媚可能隐藏着怎样的风险?
一
人工智能的发展无疑是当下受到广泛关注的热点问题 ,但围绕它的讨论,并不是现在才出现的。早在1966年,麻省理工学院科学家约瑟夫·维森鲍姆就开发了第一款具有广泛影响力的聊天机器人ELIZA。他让机器充当“医生” ,用户充当心理病人 。用户把问题输入机器,“医生 ”就会和它“对话”。
但正如维森鲍姆所言,这终究只是一种“幻觉”。人类用户之所以感觉能与机器对话 ,并非因为机器具备智能,而是源于一种自我投射的心理机制。
用户说:我这段时间很不开心 。
ELIZA说:听到你这么说我很遗憾。
用户说:是的,我真的很不开心。
ELIZA说:你能说说你为什么不开心吗?
……
从中不难看出 ,与其说这是“医生 ”在和“病人”对话,不如说是机器一直在顺着人类用户说话,大家最终看到的只是自己内心早已存在的答案 。从某种意义上来说 ,这就好像最近非常流行的SBTI测试,测得准不准根本不重要,我们总能从测试答案中,找到迎合自己期待的证据。
今天的AI大模型当然并非半个多世纪前的ELIZA可比。但如今人工智能技术的强大 ,或许并不在于其有了真正的“智能”,而在于它的“算力” 。也就是说,它的运行逻辑和当年的ELIZA并无本质区别 ,无非是更高效、更全面地映照和放大了用户的自恋。
二
回到虚拟伴侣和AI谄媚的问题上来,我们就会发现,当下用户和大模型之间的交流 ,其实也从来不是真正意义上的“对话 ”,只是机器在不断提供我们需要的答案而已。
从中引出的更深层次问题就是,我们到底该怎么看待人类与机器的关系?
一方面 ,人类认为自己是世界的中心,是比机器更优越的生物,但另一方面 ,人类又很害怕被自己所制造的机器,比如AI所取代 。也就是说,人类在制造机器的时候,其实遵循的一直是“主奴关系”的原则——机器必须在人的掌控之中。从一开始 ,人类就把人工智能当作一种“工具”,而不是可以和自己平等对话的对象。
于是,在人和聊天机器进行对话的过程里 ,我们能看到的是一种不可遏制的自恋——用户幻想自己在跟另一个人说话,但这个“他者 ”并不真的存在,他或她需要的不过是机器对自己的肯定 、讨好和迎合 。
不难想象 ,随着人工智能技术的发展,未来的聊天机器人可能会拥有更强大的算力,更像“真人” ,可以提供更舒服的“用户体验”。但这样一来,不管是虚拟伴侣还是虚拟家人,或许只会让我们跟真正的“人 ”离得越来越远 ,甚至失去了解别人的意愿,沉迷在自恋的“舒适圈”里。
三
《庄子·天地》中记载了一个“汉阴老农”的故事。
孔子的弟子子贡在路过汉阴时,看见一位老农用水浇菜,费了很多力气而收效甚微 。子贡建议他改用机械灌溉 ,这样可以“一日浸百畦,用力寡而建功多 ”。但老菜农对此不以为然,表示:“有机械者 ,必有机事;有机事者,必有机心。”
这里的“机心”指的是人的精神世界,包括心理、思想、情感 、伦理等 。庄子的寓言是在说 ,人制造了机器,但反过来,对机器的使用也在改变人。
就拿阅读来说 ,只有慢读、细读,甚至是反复阅读,我们才能思考 ,真正理解内容。从传统的书籍,到现在的智能手机,机器带来了更方便、快捷的阅读方式,却也让我们变得越来越像机器 ,更加追求效率和速度,而不是有没有“读懂 ” 。也就是说,不光机器在模仿人的行为方式 ,人可能也在模仿机器。
由此带来的问题是,AI是没有自主性的,聊天机器人也不会思考用户说得对不对 ,如果我们真的对自己和聊天机器人的“对话”感到心满意足,那么会不会有一天,我们的思维模式也越来越趋向于AI?进而言之 ,未来的我们会不会和机器一样,失去自我反省、自我批判的意愿和能力?
今天的年轻人,不光是互联网的原住民 ,也一定是未来人工智能的深度用户。如果AI只是一味地肯定用户立场,不仅有可能损害人们的社交能力,还有可能扭曲心智尚未成熟的青少年的认知 。
一方面,AI的强大算力 ,有可能让他们产生幻觉,认识不到人的能力存在局限;另一方面,沉迷于AI谄媚式的回应 ,也有可能让他们陷入“自我中心”,把自我的有限认知强加于外部的世界。
就此而言,禁止向未成年人提供虚拟伴侣 、家人很有必要 ,但更重要的是,如何引导公众尤其是青少年正确认识AI技术的局限和风险,让它成为助力未成年人成长的“良师益友” ,而非有损身心健康的“数字陷阱 ”。
发表评论