安思比克通过让用户投票选择其价值观,构建了一个民主的人工智能聊天机器人

安思比克通过允许用户投票选择其价值观,构建了一个民主的人工智能聊天机器人的系统

在可能是首次的研究中,人工智能(AI)公司Anthropic开发了一种经过用户社区细调价值判断的大型语言模型(LLM)。

许多面向公众的LLM在开发过程中设置了防护栏,即编码指令来规定特定行为,以限制不必要的输出。例如,Anthropic的Claude和OpenAI的ChatGPT通常会针对与暴力或有争议的主题相关的输出请求给用户提供固定的安全响应。

然而,正如无数评论者所指出的,防护栏和其他干预技术可能会剥夺用户的主动性。被认为可以接受的事物并不总是有用的,而被认为有用的事物并不总是可以接受的。而道德或价值判断的定义可能因文化、人口群体和时间段而异。

相关文章: 英国计划在11月的峰会上针对潜在的AI威胁

解决这个问题的一个可能方法是允许用户为AI模型确定价值对齐。Anthropic的“集体宪法AI”实验就是尝试解决这个“复杂的挑战”。

Anthropic与Polis和集体智能项目合作,吸引了1000名来自不同人口统计的用户,并要求他们通过投票回答一系列问题。

来源,Anthropic

这个挑战的核心是允许用户在不暴露于不合适输出的情况下确定何为适当。这涉及征求用户的价值观,然后将这些想法实施到已经进行过训练的模型中。

Anthropic使用一种称为“宪法AI”的方法来指导其在安全性和适用性方面调整LLM的工作。本质上,这意味着给模型提供一系列规则,并训练它在整个过程中实施这些规则,就像宪法在许多国家的治理中作为核心文件。

在集体宪法AI实验中,Anthropic试图将基于群体反馈融入模型的宪法。根据Anthropic的一篇博文所说,结果似乎在科学上是成功的,因为它揭示了实现让LLM产品的用户们确定他们的集体价值的目标进一步面临的挑战。

团队不得不克服的困难之一是找到了一个创新的基准测试方法。由于这个实验似乎是其类别的首次,并且依赖于Anthropic的宪法AI方法,因此还没有一个既定的测试方法可以将基本模型与那些调整了众包价值的模型进行比较。

最终,似乎实施了用户调查反馈数据的模型在有偏见输出方面略胜一筹。

根据博文内容:

“我们对过程比我们的结果更感兴趣。我们相信这可能是公众成员首次以集体的方式有意识地指导大型语言模型的行为。我们希望世界各地的社区能够借鉴这样的技术,来训练符合他们需求的文化和特定上下文的模型。”

We will continue to update 算娘; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

资讯

“韩国警方关闭“国际虚拟货币欺诈”团伙,冻结120万美元”

韩国警方突袭了一群涉嫌“国际”加密货币诈骗犯,冻结了超过1200万美元,并逮捕了49人

市场行情

SEC对币安的诉讼拖延了韩国Gopax收购交易

Binance的Gopax收购不仅是加密货币交易所重新进入韩国市场的举措,还是振兴当地陷入困境的加密货币交易平台的举措

市场行情

标题:韩国法庭保释媒体大亨参与对Bithumb的调查

在对领先加密货币交易所Bitthumb的市场操纵和内幕交易进行调查期间,一位韩国知名商人获得了法院的保释这一决定既保证了公正...

区块链

泰国将对加密货币交易者的海外收益征税 - 这将影响外国投资吗?

新的税收政策针对在泰国居住超过180天的本地和外国公民

区块链

韩国警方逮捕312人,打击基于加密货币的毒品交易行动

韩国警方正在加大对基于加密货币的贩毒行为的打击力度,并在一次大规模缉毒行动中逮捕了312人