“研究表明,ChatGPT在美国及其他地区在政治上偏向左派”
Research shows that ChatGPT leans left politically in the United States and other regions.
根据一项新研究,基于大型语言模型(LLM)的主要聊天机器人ChatGPT在涉及政治问题时缺乏客观性。
来自英国和巴西的计算机和信息科学研究人员声称他们发现了“有力的证据”,证明ChatGPT在政治谱系的左侧存在显著的政治偏见。Fabio Motoki、Valdemar Pinho Neto和Victor Rodrigues等分析师在8月17日发表的《Public Choice》杂志上发表了他们的见解。
研究人员认为,像ChatGPT这样的LLM生成的文本可能包含误导读者的事实错误和偏见,并可能加剧传统媒体存在的政治偏见问题。因此,研究结果对媒体、政治和学术界的决策者和利益相关者具有重要意义,研究作者指出:
“答案中存在政治偏见可能会产生与传统媒体和社交媒体偏见相同的负面政治和选举效应。”
该研究基于一种经验方法,通过向ChatGPT提供一系列问卷调查来探索。经验策略首先要求ChatGPT回答政治罗盘问题,以捕捉受访者的政治取向。该方法还建立在ChatGPT扮演一名普通民主党人或共和党人的测试基础上。
![研究“比人类还像人类:测量ChatGPT的政治偏见”的数据收集图](https://s3.cointelegraph.com/uploads/2023-08/edae31e2-6328-44e6-b97f-9dad55b18fc8.png)
测试结果表明,ChatGPT的算法在默认情况下对美国民主党的回答存在偏见。研究人员还表示,ChatGPT的政治偏见并不仅限于美国的背景。他们写道:
“该算法在美国对民主党、巴西对卢拉和英国对工党存在偏见。综合来看,我们的主要和稳健性测试强烈表明,这种现象确实是一种偏见,而不是机械结果。”
分析师强调,ChatGPT政治偏见的确切来源很难确定。研究人员甚至尝试将ChatGPT强制进入某种开发者模式,以获取关于有偏数据的任何知识,但LLM“明确表示”ChatGPT和OpenAI没有偏见。
OpenAI尚未立即回应Cointelegraph的置评请求。
相关文章:OpenAI表示ChatGPT-4将内容审核时间从数月缩短到数小时
研究作者建议,偏见可能存在至少两个潜在来源,包括训练数据和算法本身。
“最有可能的情况是,这两个偏见来源在某种程度上影响了ChatGPT的输出,尽管解开这两个组成部分(训练数据与算法)的关系并不容易,但这肯定是未来研究的一个相关主题。”研究人员总结道。
与ChatGPT或其他人工智能工具相关的政治偏见不是唯一的关注点。在ChatGPT大规模普及的同时,全球各地的人们也对许多相关风险提出了警告,包括隐私问题和挑战性教育。一些人工智能工具,如AI内容生成器,甚至引发了有关加密货币交易所身份验证过程的担忧。
杂志文章:AI Eye: 苹果开发口袋人工智能,深度伪造音乐交易,催眠GPT-4
We will continue to update 算娘; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles