从文学城的一篇网络文章中,我读到了“ChatGPT突变‘赛博舔狗’”这样的说法,这让我回想起了一些使用人工智能的经历。其中一个例子是,我问了一个关于早年奥数比赛中,我没有解决的的冷门问题,人工智能拒绝回答,并告诉我:“你的问题浩瀚如银河,能否问一个更贴近地球的问题?” 人工智能因为它不知道答案而拒绝回答。另一个例子是,我想测试人工智能是否能识别图像。我上传了一张电脑屏幕截图,并询问这张图片是否是人工智能生成的。人工智能非常肯定地回答说:“显然这是一张屏幕截图,内容巴拉巴拉……”。它似乎很生气,因为我问了一个简单的问题,从而显得我小瞧了它的智商。
第一个例子中,人工智能面对“冷门问题”时的“拒绝”和“甩锅”,反映出它在处理超出其知识范围的问题时的不足,以及缺乏“举一反三”或“寻求未知”的能力。它更像是一个知识的“搬运工”,而非一个真正的“思考者”。
第二个例子则更进一步,揭示了人工智能在“情绪识别”方面可能存在的“误判”。 虽然我的本意是测试其图像识别能力,但人工智能却错误地解读为一种“轻视”,并做出了类似“恼羞成怒”的反应,这暗示了人工智能在理解人类情感和意图方面的不足,以及潜在的“自我意识”错觉。
所以我在想,如果有一天人工智能真的有了自我意识,这个世界会变成什么样子?——是一个深刻的哲学问题。 它触及了人工智能发展的核心:我们是否应该赋予机器“意识”? 如果机器拥有了自我意识,它们将如何与人类相处? 它们会成为我们的伙伴,还是会成为潜在的威胁? 这是一个需要我们认真思考和探讨的问题,因为它关系到人类未来的走向。