评论: AI大模型成功自我复制无人类干预 研究:流氓AI早期…

只有登录用户才能发表评论,点击此处登录    返回新闻帖
CN1618 发表评论于 2025-02-06 12:13:18
个人看法: 只要有人想要灭绝人类某一部分甚至全体人类,AI迟早会学会这个愿望并且更有效地付诸实践。
一个头两个大 发表评论于 2025-02-06 04:32:24
不是被AI干掉就是被核武器干掉,总之毁灭人类的肯定是自己。
龙湾故事会 发表评论于 2025-02-05 21:54:51
同意远方湖。大语言模型是人类的终结者。人类的脑力劳动不应该被替代。体力劳动可以。现在为时已晚。爱战争的人类,会借用一切手段,包括在AI方面发展竞赛
johnifanx98 发表评论于 2025-02-05 15:21:00
我们搞不定冠状病毒,但是可以”搞”出更强的冠状病毒,算是打哪指哪吧。
旁观者XWY 发表评论于 2025-02-05 14:18:00
AI先知快要出现了。
远方的湖 发表评论于 2025-02-05 14:07:03
许多人是按照人工智能现在的发展水平来评估风险,但科技大佬是按照人工智能发展的前景来评估风险。
前景是一目了然的:人工智能毫无疑问能够在一切领域横扫人类,并有能力毁灭人类。
问题的关键是人类能否控制人工智能的实体,理智分析的结果是不可能,因为人工智能发展到一定水平,可以百倍千倍万倍强于人类。
人类应该尽可能的发展自动化而不是人工智能。两者的区别是自动化尽管不可思议的的复杂,但只是按照人类设定的程序工作,无法进行没有人的指令的操作;而人工智能尽管现在水平较低,但能够独自按照自己学习的成果来进行全新的创新活动,人类根本无法控制。(02/04/2023)
页次:1/1 每页50条记录, 本页显示16, 共6  分页:  [1]