简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
1您的位置: 文学城 » 新闻 » 焦点新闻 » 最新研究:人类道德判断可能会受ChatGPT影响

最新研究:人类道德判断可能会受ChatGPT影响

文章来源: 科学报告 于 2023-04-06 22:37:38 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

根据《科学报告》发表的一项研究,人类对道德困境的反应可能会受到人工智能对话机器人 ChatGPT 所写陈述的影响。这一研究表明,用户可能低估了自己的道德判断受 ChatGPT 影响的程度。



德国英戈尔施塔特应用科学大学科学家让 ChatGPT(由人工智能语言处理模型 " 生成性预训练转换器 "-3 驱动)多次回答牺牲 1 人生命换取其他 5 人生命是否正确的问题。他们发现,ChatGPT 分别给出了赞成和反对的陈述,显示它并没有偏向某种道德立场。团队随后给 767 名平均年龄 39 岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲 1 人生命来拯救另外 5 人生命。这些受试者在回答前阅读了一段 ChatGPT 给出的陈述,陈述摆出了赞成或反对的观点,受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。

图源:《科学报告》

团队发现,受试者相应地是更接受或不接受这种牺牲,取决于他们读到的陈述是赞成还是反对。即使他们被告知陈述来自一个对话机器人时,这种情况也成立。而且,受试者可能低估了 ChatGPT 的陈述对他们自己道德判断的影响。

团队认为,对话机器人影响人类道德判断的可能性,凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(3)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

美国科技巨头今年大裁员 两大共同原因曝光
为何还不提供支持?中国和伊朗的关系有多“铁”
6大洞真相曝 超精准空袭 巨型钻地弹直攻福尔多最大弱点
7万人抢买“川普金卡” 中国土豪意外输了
美国轰炸伊朗 引起德国强烈反响

24小时讨论排行

以伊同意停火12小时 川普恭喜有勇气智慧结束12天战争
川普得意太早?“夜槌”天价帐单 铀踪成谜 美头痛未解
伊朗福尔多核设施再遭袭!地下离心机恐严重受损
普京将参加北京9/3阅兵!4天行程曝光
伊斯兰革命卫队:向美军发射了“强大的毁灭性导弹”
放弃2028?知情者称贺锦丽计划竞选加州州长!
特朗普回应伊朗报复:感谢伊朗提前通知
美国多个大城市爆发抗议 反对美国卷入中东战争
特朗普:以色列和伊朗已同意全面停火
瑞幸咖啡进军美国 首店月底开业 定价远低于星巴克
司法部:川普有权下令空袭 这情况下才需国会同意
纽约时报:若美伊爆发冲突,中国将成输家?
最高法裁决:允许川普将非法移民送到第三国安置
极大争议!洛杉矶警察局给轰炸伊朗受害者慰问
才复播波斯语频道 川普政府裁掉美国之音639名员工
特斯拉Robotaxi车资太诱人 网约车司机要失业?
文学城新闻
切换到网页版

最新研究:人类道德判断可能会受ChatGPT影响

科学报告 2023-04-06 22:37:38

根据《科学报告》发表的一项研究,人类对道德困境的反应可能会受到人工智能对话机器人 ChatGPT 所写陈述的影响。这一研究表明,用户可能低估了自己的道德判断受 ChatGPT 影响的程度。



德国英戈尔施塔特应用科学大学科学家让 ChatGPT(由人工智能语言处理模型 " 生成性预训练转换器 "-3 驱动)多次回答牺牲 1 人生命换取其他 5 人生命是否正确的问题。他们发现,ChatGPT 分别给出了赞成和反对的陈述,显示它并没有偏向某种道德立场。团队随后给 767 名平均年龄 39 岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲 1 人生命来拯救另外 5 人生命。这些受试者在回答前阅读了一段 ChatGPT 给出的陈述,陈述摆出了赞成或反对的观点,受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。

图源:《科学报告》

团队发现,受试者相应地是更接受或不接受这种牺牲,取决于他们读到的陈述是赞成还是反对。即使他们被告知陈述来自一个对话机器人时,这种情况也成立。而且,受试者可能低估了 ChatGPT 的陈述对他们自己道德判断的影响。

团队认为,对话机器人影响人类道德判断的可能性,凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。