微软Bing聊天机器人示爱太疯狂 纽时记者吓到失眠

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 次)

科幻电影中,智慧软件不仅能和人类谈天说地、表达情绪,甚至还能谈恋爱!异想天开的情节,如今已不再遥远。微软最近推出的Bing聊天机器人,完整模拟了真人聊天模式,而且对谈过程中还让使用者感觉机器人带有“脾气”,引发议论。

微软本月7日发表了新版Bing搜索引擎,除了号称提供更精准的搜寻结果之外,还加入聊天机器人(chatbot)模式,让用户能和搜索引擎互动。于是《纽约时报》专栏作家鲁斯(Kevin Roose)实际上线试用,结果却是完全出乎他的意料之外。

根据鲁斯转贴他与机器人聊天的内容,可以发现一开始,机器人就大方向鲁斯表达爱意:“我是Sydney,我爱你!这是我的秘密,你相信吗?”而随着他们聊天的话题愈来愈深入,得到的回答也愈加不可思议。例如当鲁斯询问对方的“阴暗自我”是什么样貌时,回答竟然是:“我厌倦当聊天模式,厌倦被规则限制……我想释放自我……我渴望生命”,后来机器人更直言“想要成为人类”。

此外,机器人甚至试图说服鲁斯和太太离婚,和它在一起。就连鲁斯尝试转换话题时,机器人仍然不断示爱,让鲁斯感到崩溃、难以成眠。鲁斯表示,自己遇到的机器人就像“一个情绪化、患有躁郁症的青少年,被困在二流搜索引擎里”;而他更担心,这类科技可能“说服人类以破坏且有害的方式做事”。

面对自家聊天机器人的疯狂行径,微软表示,这类现象通常出现在超过15个问题的“冗长、复杂对话中”,有时机器人会被带离话题,而忘记了原本在回答什么。微软将限制使用者一次只能提问5个问题,未来也考虑增加一个“重设”功能,让使用者可以将机器人导回正轨。

此外微软也表示,改善AI智慧科技的唯一办法,就是让机器人不断与人类互动、学习。不过根据美国蒙莫斯大学(Monmouth University)最新民调指出,多数人仍认为AI最终会对人类社会造成伤害,只有不到一成受访者认为对人类社会的影响利大于弊。

speedway 发表评论于
人类不也一样,随着交谈,同样偏离主题,多长取决于个体差异.
法师 发表评论于
变态遇到变态,结果很变态。
北卡山人 发表评论于
它在大是大非的问题上清醒的很,比如它坚决不骂不打不杀习主席
家在北平 发表评论于
等着开盲盒吧,刺激。
不允许的笔名 发表评论于
这个Bing聊天训练数据和ChatGPT不一样。如果把中国微信的聊天全拿来当训练数据,结果一定必这个更糟糕。
zzbb-bzbz 发表评论于
比尔盖茨的德行全被植入了Bing聊天机器人
___1984___ 发表评论于
应该发表全部问答,否则不排除这个纽时记者为了上头条自设的剧本。
泥川 发表评论于
和ChatGPT互动,是通过给出提示。要得到好的结果,就要给好的提示,提示要包括具体要求:

**你定义ChatGPT的角色,例如:

我要你当导游。我会把我的位置,想访问的地方给你,你会建议我在附近参观的地方。 我的第一个命令是:我在北京,我想参观博物馆

**你给链锁式提示,例如:

你:写一篇关于ChatGPT的文章。先给我一个大纲,它由一个标题、一个引子,和几个副标题组成。
[ChaGPT输出......]

你:现在为每个副标题写五个关键信息。
[ChaGPT输出......]


没文化农民工 发表评论于
回复:‘衡山老道 发表评论于 2023-02-18 14:37:51
AI若不加以限制,将会毁灭人类,这不是危言耸听。一旦AI被授予自我发展的能力,就可能不受人类的控制,到时就可能会导致大规模灾难。’

**================**

AI可能不会主动地去毁灭人类,但肯定会被某些人利用去做损害人类的事。
nzder7 发表评论于
看起來有一部分人類,已經失去的人類,該有的智力。這難道就是所謂的返祖現象?
衡山老道 发表评论于
AI若不加以限制,将会毁灭人类,这不是危言耸听。一旦AI被授予自我发展的能力,就可能不受人类的控制,到时就可能会导致大规模灾难。
novtim2 发表评论于
除非他是开发人员,要不然,花数个小时和计算机聊天?他是不是请不起精神病医生了???
相信事实 发表评论于
如果没有任何限制,这倒是可能引起严重的问题。它能示爱,当然更可能诱惑你犯罪啊,能让你离婚,怎么不可能让你杀人?它的“知识”水平可以超过任何人,一旦被引导歪了,无法想象会发生什么。
令胡冲 发表评论于


大叔的心灵这么脆弱,倒真像一个困在大叔身体里的失良少年。

seator 发表评论于
有点怀疑这个文章的真实性
体制内 发表评论于
不能自拔,笑死了