评论: 微软Bing聊天机器人示爱太疯狂 纽时记者吓到失眠
只有登录用户才能发表评论,
点击此处
登录
返回新闻帖
speedway
发表评论于 2023-02-19 05:45:00
人类不也一样,随着交谈,同样偏离主题,多长取决于个体差异.
法师
发表评论于 2023-02-18 21:10:51
变态遇到变态,结果很变态。
北卡山人
发表评论于 2023-02-18 19:03:19
它在大是大非的问题上清醒的很,比如它坚决不骂不打不杀习主席
家在北平
发表评论于 2023-02-18 18:53:46
等着开盲盒吧,刺激。
不允许的笔名
发表评论于 2023-02-18 17:55:53
这个Bing聊天训练数据和ChatGPT不一样。如果把中国微信的聊天全拿来当训练数据,结果一定必这个更糟糕。
zzbb-bzbz
发表评论于 2023-02-18 16:34:22
比尔盖茨的德行全被植入了Bing聊天机器人
___1984___
发表评论于 2023-02-18 16:26:30
应该发表全部问答,否则不排除这个纽时记者为了上头条自设的剧本。
泥川
发表评论于 2023-02-18 15:39:29
和ChatGPT互动,是通过给出提示。要得到好的结果,就要给好的提示,提示要包括具体要求:
**你定义ChatGPT的角色,例如:
我要你当导游。我会把我的位置,想访问的地方给你,你会建议我在附近参观的地方。 我的第一个命令是:我在北京,我想参观博物馆
**你给链锁式提示,例如:
你:写一篇关于ChatGPT的文章。先给我一个大纲,它由一个标题、一个引子,和几个副标题组成。
[ChaGPT输出......]
你:现在为每个副标题写五个关键信息。
[ChaGPT输出......]
没文化农民工
发表评论于 2023-02-18 15:12:59
回复:‘è¡¡å±±èé å表è¯è®ºäº 2023-02-18 14:37:51
AIè¥ä¸å 以éå¶ï¼å°ä¼æ¯ç人类ï¼è¿ä¸æ¯å±è¨è¸å¬ã䏿¦AI被æäºèªæåå±çè½åï¼å°±å¯è½ä¸åäººç±»çæ§å¶ï¼å°æ¶å°±å¯è½ä¼å¯¼è´å¤§è§æ¨¡ç¾é¾ã’
**================**
AI可能不会主动地去毁灭人类,但肯定会被某些人利用去做损害人类的事。
nzder7
发表评论于 2023-02-18 14:42:00
看起來有一部分人類,已經失去的人類,該有的智力。這難道就是所謂的返祖現象?
衡山老道
发表评论于 2023-02-18 14:37:51
AI若不加以限制,将会毁灭人类,这不是危言耸听。一旦AI被授予自我发展的能力,就可能不受人类的控制,到时就可能会导致大规模灾难。
novtim2
发表评论于 2023-02-18 14:29:24
除非他是开发人员,要不然,花数个小时和计算机聊天?他是不是请不起精神病医生了???
相信事实
发表评论于 2023-02-18 14:18:46
如果没有任何限制,这倒是可能引起严重的问题。它能示爱,当然更可能诱惑你犯罪啊,能让你离婚,怎么不可能让你杀人?它的“知识”水平可以超过任何人,一旦被引导歪了,无法想象会发生什么。
令胡冲
发表评论于 2023-02-18 14:11:37
大叔的心灵这么脆弱,倒真像一个困在大叔身体里的失良少年。
seator
发表评论于 2023-02-18 14:11:32
有点怀疑这个文章的真实性
体制内
发表评论于 2023-02-18 14:06:55
不能自拔,笑死了
页次:
1
/1
每页
50
条记录, 本页显示
1
到
16
, 共
16
分页: [
1
]