非法律专业人士更愿意依赖 ChatGPT 提供的法律建议,而不是真正的律师——至少在他们不知道建议是由哪一方提供的情况下。这是我们新研究的关键发现,该研究凸显了公众日益依赖人工智能生成内容的一些重要担忧。我们还发现,公众至少能够在一定程度上辨别这些建议是来自 ChatGPT 还是人类律师。
ChatGPT 等人工智能工具以及其他大型语言模型 (LLM) 正在逐渐融入我们的日常生活。它们承诺能够快速解答问题、生成思路、诊断医学症状,甚至提供具体的法律建议,帮助解答法律问题。
但众所周知,LLM 会产生所谓的“幻觉”,即输出包含不准确或无意义内容的成果。这意味着过度依赖 LLM 会带来真正的风险,尤其是在法律等高风险领域。 LLM 往往会自信地提出建议,让人难以区分好建议和果断的坏建议。
我们共对288人进行了三项实验。在前两项实验中,参与者获得了法律建议,并被问及他们愿意采纳哪一项。我们发现,当人们不知道这些建议是来自律师还是人工智能时,他们更愿意依赖人工智能生成的建议。这意味着,如果法学硕士(LLM)提供的法律建议没有透露其性质,人们可能会将其视为事实,并且比律师的专业建议更倾向于接受——甚至可能不会质疑其准确性。
即使告诉参与者哪些建议来自律师、哪些建议是由人工智能生成的,我们发现他们也像律师一样愿意遵循 ChatGPT。
我们在研究中发现,法学硕士(LLM)受青睐的原因之一是他们使用的语言更复杂。另一方面,真正的律师倾向于使用更简单的语言,但在回答问题时会用到更多词汇。
第三个实验探究了参与者在未透露来源的情况下,能否区分法学硕士(LLM)撰写的内容和律师撰写的内容。好消息是,他们能够区分,但差别不大。
在我们的任务中,随机猜测的得分为0.5,而完美的辨别能力则为1.0。参与者的平均得分为0.59,这表明他们的表现略好于随机猜测,但仍然相对较弱。
监管与人工智能素养
对于我们这样的研究来说,这是一个关键时刻,因为聊天机器人和法学硕士等人工智能系统正日益融入日常生活。 Alexa 或 Google Home 可以充当家庭助理,而人工智能系统可以帮助完成诸如在线购物、总结法律文本或生成医疗记录等复杂任务。
然而,这也伴随着巨大的风险,即在幻觉错误信息的引导下做出可能改变人生的决定。在这起法律案件中,人工智能生成的幻觉建议可能会导致不必要的麻烦,甚至造成误判。
正因如此,对人工智能进行妥善监管比以往任何时候都更加重要。迄今为止,相关尝试包括《欧盟人工智能法案》,其中第50.9条规定,文本生成人工智能应确保其输出“以机器可读的格式标记,并可检测为人工生成或操纵的”。
但这只是解决方案的一部分。我们还需要提高公众对人工智能的认知,以便公众能够更好地批判性地评估内容。当人们能够更好地识别人工智能时,他们就能做出更明智的决定。
这意味着我们需要学会质疑建议的来源,了解人工智能的能力和局限性,并在与人工智能生成的内容交互时强调运用批判性思维和常识。实际上,这意味着要与可靠的来源交叉核对重要信息,并邀请人类专家参与,以防止过度依赖人工智能生成的信息。
就法律咨询而言,使用人工智能来回答一些初步问题或许没问题:“我有哪些选择?我需要了解哪些资料?有没有类似的案例,或者这属于哪个法律领域?” 但重要的是,在最终上法庭或根据法学硕士生成的任何信息采取行动之前,要先与人类律师核实建议。
人工智能可能是一种宝贵的工具,但我们必须负责任地使用它。通过采取双管齐下的方法,既注重监管,又注重人工智能素养,我们就能充分利用其优势,同时最大限度地降低其风险。
https://techxplore.com/news/2025-04-people-legal-advice-generated-chatgpt.html?utm_source=nwletter&utm_medium=email&utm_campaign=daily-nwletter