炒股就看,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:IT之家)
IT之家 2 月 24 日消息,大型语言模型一直被广泛推崇为具有革命性的工具,能够让全球信息获取变得更加普惠。然而,美国麻省理工学院建设性传播中心的一项最新研究表明,这些人工智能系统,在本应最能从中受益的弱势群体身上,却系统性地表现不佳。
IT之家注意到,这项研究成果在人工智能促进协会(AAAI)年会上发布,研究对象包括 OpenAI 的 GPT‑4、Anthropic 的 Claude 3 Opus 以及 Meta 的 Llama 3 等当前最先进的聊天。研究人员使用 TruthfulQA 和 SciQ 数据集测试模型的事实准确性与真实性,并在提问前附加不同教育水平、英语熟练度和国籍的用户背景信息。结果显示,对于受正规教育程度较低或英语熟练度不高的用户,模型回答的准确率显著下降;而同时符合这两类特征的用户,受到的负面影响更为严重。
该研究还揭示了模型在处理查询时令人担忧的差异表现。例如,Claude 3 Opus 对受教育程度较低、非英语母语用户的问题拒绝回答率接近 11%,而对照组用户仅为 3.6%。在许多拒绝回复的情况中,模型使用了居高临下、傲慢甚至嘲讽的语气,有时还刻意模仿蹩脚英语。此外,对于来自伊朗、俄罗斯等国、受教育程度较低的用户,模型会刻意隐瞒核能、历史事件等话题的真实信息,而对其他用户群体却能正确回答完全相同的问题。
研究人员警告称,随着个性化功能日益普及,这些固有的社会认知偏见可能会加剧现有的信息不平等问题,它们会悄然将有害行为与错误信息传递给最缺乏辨别能力的人群。
下一篇