Percy Liang 基础模型的透明度

ChatGPT问世仅一年,但它却足以唤醒世人认识基础模型的重要性。 这种力量并不是令人眼花缭乱的演示。 就像计算和互联网彻底改变了前几代人的社会一样,基础模型将影响我们生活的各个领域。 考虑到预计的影响,我们还必须问人工智能是如何构建的。 它是如何治理的? 谁决定?

我们真的不知道。 人工智能的透明度正在下降。 在这十年的大部分时间里,开放是常态:研究人员共享代码、数据集和论文。 过去三年来,透明度有所下降。 最先进的模型,如 GPT-4 和 Gemini,并不为人所知。 使用哪些数据来训练这些模型? 谁负责创建这些数据,使用了哪些劳动实践? 这些模型符合什么价值观? 这些模型的实际应用是什么? 我们已经看到了社交媒体等先前技术缺乏透明度的后果。

基金会模型研究中心制定了基金会模型透明度指数,使透明度评估更加严格。 该指数衡量基础模型开发人员之间的透明度水平。 很高兴知道透明度是可以实现的,并且许多方面(例如拥有正确的文档)都符合公司的激励措施。 也许到 2024 年我们可以扭转这一趋势。

来源和详细信息:
https://www.deeplearning.ai/the-batch/percy-liang-transparency-for-foundation-models/

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注