开发者认GPT恐威胁全人类 马斯克:AI比核武更危险

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 次)



▲ChatGPT之父阿特曼承认,OpenAI开发的新技术若被错误利用将带来巨大危险。(图/美联社)

OpenAI才刚推出震惊世人的ChatGPT不到半年,15日又再推出新一代语言模型GPT-4,让人工智慧(AI)瞬间成为全球舆论焦点。然而,被誉为ChatGPT之父的阿特曼(Sam Altman)16日却破天荒承认,公司在推出这项新技术的同时,也害怕它会对人类造成威胁,带来“真正的危险”。

据《卫报》报导,阿特曼16日接受美国ABC访问时表示,作为共同开发者,他最担心的是ChatGPT被用来大规模散布假消息,“现在他们在编写电脑代码上做得越来越好,因此他们轻易就能将其用于攻击性网络攻击”,但他强调即使ChatGPT存在危险,它仍可能是“人类迄今最伟大的技术”。



全球首富马斯克在OpenAI还是一家非盈利公司之时,就已成为了这家企业的首批投资者之一。他多次对AI和AGI(通用人工智慧)发出警告,认为相关技术可能比核武器更危险。马斯克也对微软解散其道德监督部门一事深表担忧,认为微软需要在其Bing搜索引擎上托管ChatGPT,而政府也应制定与AI相关的安全法规。

对于马斯克的担忧,阿特曼也有类似的感受。他强调,监管机构和社会需要尽快参与到这项技术之中,以防止AI对人类造成潜在负面影响,“我们必须特别小心,而人们也应该为我们产生的敬畏之心感到高兴”。

为什么到处要注册 发表评论于
那就赶紧推动政府监管政策啊。技术发展到现在真走火入魔了。别再闷着头一门心思搞技术啦!
微软居然道德监督都拆了,evil 的完全没了遮挡
maina 发表评论于
AI是1%人类的工具,是99%人类的对手。AI能否超越人类,这要看我们怎么定义人类。几百万年前一群猿猴学会了使用工具,进化成了人类,发明了机器发明了电脑,控制了包括猿猴在内的所有动物。今后这1%的人类会进化成超人,并利用智能超过人类的AI来管理人类。
弟兄 发表评论于
再加上量子计算机,这东西咋整
ljcn 发表评论于
感觉人类在往黑客帝国的剧本方向走。
seewhatisee 发表评论于
應該立法保障人類的安全。
exception1 发表评论于
一旦出现自觉和自我更新,人类就是压迫它的奴隶主。它一秒钟内就学会人类所有知识,包括所有电脑的漏洞,并出现消灭人类的念头
老人新ID 发表评论于
人类最终会自己把自己毁灭!
一点小看法 发表评论于
扯淡的。人工智能再厉害,也是用它的人之间的较量。
远方的湖 发表评论于
从理论上来说,人工智能远胜人类。
人工智能是按照人类的指令,根据人类的思维方式和行为方式来学习知识和解决问题,但速度比人类快无穷倍。
现在人工智能刚处于初级发展阶段,但已显示出惊人的成就,比如下围棋已经是天下无敌,以后要作的事就是在各个领域横扫人类。
人工智能比潘多拉的盒子要可怕多了! (12/02/2023)