背景
根据 OpenAI 官网显示,为 ChatGPT 项目做出贡献的人员共 87 人。从性别分布看,ChatGPT 团队中有女性 9 人,占总数的 10%;男性共 78 人,占 90%。
该 9 位女性成员中,有 2 位是华人,有曾就读于北京大学与香港大学的翁丽莲(Lilian ),以及 Steph Lin。
“名校”和“年轻”是她们身上显著的标签。而整个ChatGPT 团队未配备技术与产品之外的职能人员(如公共关系、市场营销等人员),而是高度聚焦于技术研发。
本文是 OpenAI 技术团队采访翁丽莲(Lilian )的实录,希望对大家有启示。
翁丽莲(Lilian )
Lilian 其人
Lilian 目前在 OpenAI Robotics 团队工作。她的日常工作包括写代码、试验新想法、阅读论文、破解硬件以及与团队的 ShadowHand 机器人一起协同工作。
Lilian 有一个自己的机器学习技术博客,她认为最好的学习方法是向其他人清楚地解释一个技术新概念。
Lilian 认为通用人工智能 (AGI) 应该在最具经济价值的工作中胜过人类。
她期待看到 AGI 以以下这些方式帮助人类社会:
完全自动化或显著减少重复性和非创新性任务的人力。换句话说,AGI 应该能极大地提高人类的生产力。
极大地加快发现新的科学突破,包括但不限于通过提供额外的分析和信息来促进人类决策过程。
有效、高效和安全地理解物理世界,并与之互动。
我们设计并构建了一组评估数据和任务,以评估预训练语言模型生成仇恨、色情或暴力内容的趋势。
我们创建了一个详细的分类法并构建了一个强大的分类器来检测不需要的内容以及内容不合适的原因。
我们正在研究各种技术,以降低模型生成不安全输出的可能性。
随着 Applied AI 团队正在实践部署尖端 AI 技术(例如大型预训练语言模型)的最佳方式,我们看到了它们对现实世界任务的强大和有用。正如我们的团队章程中所强调的,我们意识到安全部署这些技术的重要性。
当前的深度学习模型并不完美——它们接受了人类创造的大量数据(例如在互联网上、策划的和文学上的数据)的训练,并且不可避免地吸收了人类社会长期存在的许多缺陷和偏见。
比如让DALL·E去演一个护士,它只会生成女性角色,或者一个教授,它只会生成白人。该模型会捕获到现实世界统计数据中的偏差或我们训练数据中的偏差。
我有动力设计一种方法来减轻这种社会偏见,也在评估这种方法的效率。我们与团队一起设计了一个管道来减少这种偏差,以及一个运行人在环境中的工作流程。
减少社会偏见不是一个容易的问题,因为它出现在我们生活的许多方面,有时很难注意到。但我很高兴DALL·E团队非常认真地对待这个问题,并在很早的阶段就采取了行动。我们现在所拥有的只是一个开始,我们会不断进步。
我很自豪能在这个领域工作,也很高兴看到我们如何一步步让现代人工智能变得更安全、更好。
不同主题或领域的想法,往往能激发出新的想法,拓宽潜在的解决方案空间。
近年来,人工智能社区取得了如此大的进步。硬件、模型架构和数据的进步使训练大的模型成为可能。
因此,我们不断看到越来越大的能力。
我相信我们正走在 AGI 的正确轨道上,但扩展并不是唯一的方法。在我看来,目前最紧迫的挑战是对齐和安全。在某种程度上,它们可能是关于可控性或可操纵性的类似问题。
首先,即使我们已经拥有了一个极其强大的人工智能系统,如果我们不能有效地传达我们的目标并确保模型与自己想要的一致,就不可能创造出我们需要的价值。
当前最强大的模型是从大量数据中学习,数据集不可避免地捕捉到现实世界中不完美的缺陷和偏见。在这方面,未对齐的模型存在安全问题,因为它们不知道应该避免什么。
我相信我们正走在 AGI 的正确轨道上,但扩展并不是唯一的方法。目前最紧迫的挑战是同步和安全。
作者:高朋
参考:
https://openai.com/blog/the-power-of-continuous-learning