评论: AI教父:AI在30年内毁灭人类的几率高达2成

只有登录用户才能发表评论,点击此处登录    返回新闻帖
XM25 发表评论于 2024-12-29 01:43:00
发明原子弹的时候也有这种担忧。
一个头两个大 发表评论于 2024-12-29 01:28:58
人类早该灭绝了,就怕把自己毁灭了,AI还什么都不是。如果AI能独立思考和发展,也不见得比人类糟糕。就怕搞出来的AI是个半吊子货,就像很多被人类圈养的家畜一样,离开人类分分钟就完蛋。
旁观者XWY 发表评论于 2024-12-28 22:15:00
人为万物之灵归功于大脑,但一旦着迷,大脑也是人的死穴,不是成为丧尸就是死士。AI将是人脑的主人。
旁观者XWY 发表评论于 2024-12-28 22:08:00
AI将会是上帝的信使,中世纪的宗教战争重现,归根结底还是人类自相残杀。
一支鞋飞了 发表评论于 2024-12-28 20:12:17
已经开始了,看看现在大面积的失业人口吧
弯刀月 发表评论于 2024-12-28 18:18:00
中巴反恐演习就是AI能力的展现,一枪一个,绝不浪费子弹。美军更牛逼,阿三整的AI已经可以绕开人工指令指挥飞机了
shiren1818 发表评论于 2024-12-28 16:44:15
30年内教父被AI毁灭,人类还是继续生存,文学城里照样灯火通明。
骂人不好 发表评论于 2024-12-28 16:03:30
楼下万家灯火网友所担心的挑战是实实在在的。

现在的人工智能在狭义智能上已经非常先进了,但是还没有突破广义的人工智能。我的理解是还没有自主的思考能力,它的能力还是依赖于数据和训练。一旦突破广义的人工智能,国际合作和监管必不可少。不然太危险了。不过我相信人类一定会找到办法一面享受人工智能带来的好处,一面控制风险。毕竟互相毁灭的能力是监管的最后的保险。当然以人性之贪和人性之恶,滥用人工智能带来恶果的案例一定会发生的。
wanjiadeng 发表评论于 2024-12-28 15:43:52
即便如此人类也没有解决办法。就算美国能做到充分监管AI(可能性不大),也不能保证其他国家也会做到。如果反而让某个邪恶政权(比如朝鲜)发展出领先技术,岂不是作茧自缚
骂人不好 发表评论于 2024-12-28 15:11:03
人工智能的自主训练客观来看是有可能给人类带来灾难的。出于法律和伦理道德的监管必须加强。人工智能的学习过程取决于数据。比如自主学习的过程中,大量的数据如果显示出通过战争可以取得控制权和财富,人工智能会不会挑起战争?如果数据告诉它罗织罪名可以打击对手,获得权力和巨大的利益,人工智能会不会编造数据,罗织罪名?

如何避免人工智能在自主训练中接触到和人类的伦理道德相悖的事实和数据从而训练出以恶行来追求利益最大化的人工智能?

有人说拔电源就行了。问题上人工智能那个时候一定已经掌握了人的弱点,用利益收买人去给它差电源,或者控制备用电源,估计也不是做不到。一旦人工智能学会了人的诡计,人类就危险了。
seator 发表评论于 2024-12-28 14:49:00
前提是AI有自我思维能力,生成式AI本质上还是个问答机器人
京城老炮1950 发表评论于 2024-12-28 14:44:37
耸人听闻!AI是人造的,而人是上帝造的。除非人类要自己毁灭自己,否则没有任何人造的东西可以毁灭人类!
pellegrino 发表评论于 2024-12-28 14:35:24
不会是20%的

必定是100%

天乙贵人 发表评论于 2024-12-28 14:25:50
不需要ai了,直接给扫地机器人做大一点,绑上几十只枪,在市中心的mall里乱开枪就行了。
页次:1/1 每页50条记录, 本页显示114, 共14  分页:  [1]