Airpods之父:关于 OpenAI 的思考

我三周前离开了OpenAI。我于2024年5月加入该公司。

我想要分享我的思考,因为关于OpenAI所做的事情,外界有太多猜测和噪音,但很少有人能真正描述在那里工作的文化究竟是怎样的。

Nabeel Quereshi 撰写了一篇精彩的文章《对 Palantir 的反思》,他在文中探讨了 Palantir 为何独具特色。我希望在记忆犹新之际,为OpenAI做同样的反思。这里不会透露任何商业机密,更多的是对历史上最令人着迷的组织之一在极具历史意义的时刻的当前状态的思考。

坦白说:我离开的决定中没有个人恩怨——事实上我对此深感矛盾。从自己创业的创始人到一家3000人组织的员工,这种转变确实艰难。目前我渴望一个全新的开始。

工作质量可能会让我重新回到这里。很难想象还有什么能比 AGI 更具影响力,而大语言模型(LLMs) 毫无疑问是本世纪十年的技术创新。我很幸运能够亲眼见证一些发展,并参与了 Codex 的发布

元素周期表

显然,这些观点不代表公司立场——作为观察,它们仅代表我个人看法。OpenAI 是个庞大的组织,而这只是我对它的微小视角。

文化

了解 OpenAI 的第一件事是 它增长之快。我加入时,公司员工刚超过 1000 人。一年后,员工数量已超过3000人,而我已跻身资历排名前30%的行列。几乎所有领导层成员的工作内容与两三年前相比都发生了巨大变化。1

当然,当公司以如此快的速度扩张时,一切都会出现问题:如何作为一家公司进行沟通,汇报结构,如何推出产品,如何管理和组织人员,招聘流程等。团队在文化上差异显著:有些团队始终以全速前进,有些则在管理大型项目,还有些则以更加稳定的节奏推进。OpenAI 没有统一的体验,研究应用GTM 运作在非常不同的时间维度上。

OpenAI 的一个独特之处在于,一切,我是说 一切,都运行在 Slack 上。没有电子邮件。我在那里工作的整个过程中可能只收到了大约 10 封电子邮件。如果你不够有条理,你会发现这非常分散注意力。如果你能整理好你的频道和通知,就可以让它变得相当可行。

OpenAI 非常注重自下而上,尤其是在研究领域。当我刚到那里时,我开始询问下个季度的路线图。得到的回答是:“这不存在”(尽管现在有了)。好点子可能来自任何地方,而且往往在事前并不清楚哪些点子会最有效。与其制定宏大的“总体计划”,进展是通过迭代实现的,随着新研究取得成果而逐步揭示。

得益于这种自下而上的文化,OpenAI也非常注重能力。历史上,公司领导者的晋升主要基于其提出好想法并付诸实施的能力。许多非常有能力的领导者并不擅长在全体会议上演讲或进行政治运作。在OpenAI,这些因素的重要性不如其他公司。最好的想法往往会胜出。2

这里存在一种强烈的行动偏好(你可以直接采取行动)。不同团队在不相关领域却能达成相似想法的情况并不少见。我最初参与的项目与ChatGPT Connectors类似,但属于内部平行项目。在决定推进发布前,大约有3-4个不同的Codex原型在流传。这些努力通常由少数几个人在未经许可的情况下发起。随着这些项目展现出潜力,团队会迅速围绕它们形成。

安德烈(Codex负责人)曾告诉我,应将研究人员视为他们自己的“小型执行官”。存在一种强烈倾向,即专注于自己的项目并观察其发展。这里有一个推论——大多数研究是通过“狙击”研究人员使其专注于特定问题来完成的。如果某件事被认为无聊或“已解决”,它很可能不会被研究。

优秀的科研管理者具有极大的影响力,但同时也面临诸多限制。最优秀的管理者能够将不同研究项目之间的关联性串联起来,并整合成一个更大的模型训练体系。同样的道理也适用于优秀的项目经理(致敬ae)。

我合作过的ChatGPT EMs(Akshay、Rizzo、Sulman)是我见过最酷的客户之一。他们似乎已经见识过一切3。他们大多采取放手管理的方式,但会聘请优秀的人才,并努力确保他们能够取得成功。

OpenAI 能够在短时间内迅速调整方向。这是我们在 Segment 非常看重的一点——在获得新信息时做正确的事情,比仅仅因为有计划而坚持原有方向要好得多。令人惊叹的是,像OpenAI这样规模的公司仍能保持这种理念——谷歌显然做不到。该公司决策迅速,一旦决定追求某个方向,就会全力以赴。

该公司面临着极大的审查压力。作为一名来自B2B企业背景的人,这对我来说有点震惊。我经常看到媒体报道一些尚未在内部宣布的新闻。当我告诉别人我在OpenAI工作时,他们往往已经对公司形成了既定看法。许多Twitter用户运行自动机器人,用于监测是否有新功能即将发布。

因此,OpenAI是一个非常保密的地方。我无法向任何人详细说明我正在从事的工作。有几个Slack工作区,权限各不相同。收入和烧钱数据被严格保密。

OpenAI也比你想象中更严肃,部分原因在于** stakes feel really high**。一方面,目标是构建AGI——这意味着有很多事情需要做对。另一方面,你正在开发一款产品,数亿用户将依赖它处理从医疗建议到心理治疗等各类需求。而另一方面,该公司正参与全球最大的竞争舞台。我们密切关注Meta、Google和Anthropic的动向——我相信他们也在做同样的事情。全球主要政府都对这一领域保持高度关注。

尽管OpenAI在媒体上常遭诟病,但我遇到的每个人都在真正努力做正确的事。由于其面向消费者的定位,它是大型实验室中最受关注的,因此也承受了大量诽谤。

不过,你可能不应将OpenAI视为一个单一实体。我认为OpenAI是一个类似洛斯阿拉莫斯实验室的组织。它最初是一群科学家和技术爱好者,致力于探索科学前沿。这群人偶然间创造了历史上最受欢迎的消费级应用。随后,他们开始萌生向政府和企业出售技术的野心。不同资历和不同部门的人员随后有了截然不同的目标和观点。你在那里待得越久,越可能通过“研究实验室”或“非营利组织”的视角看待问题。

我最欣赏的是,该公司真正践行了“让AI惠及大众”的承诺。前沿模型并非仅限于与企业签订年度协议的高端用户。全球任何人都可以登录ChatGPT获取答案,即使未登录也能使用。有一个API可以注册并使用——而且大多数模型(即使是SOTA或专有模型)通常会很快进入API,供初创公司使用。你可以想象一个与我们今天所处的环境截然不同的替代体系。OpenAI在这方面值得称赞,而且这仍然是公司DNA的核心。

安全问题实际上比你想象的更重要,如果你经常阅读ZviLesswrong的文章。有大量人员致力于开发安全系统。考虑到OpenAI的性质,我观察到更多关注实际风险(如仇恨言论、滥用、操纵政治偏见、制造生物武器、自残、提示注入)而非理论风险(如智能爆炸、权力追求)。这并非意味着无人研究后者,确实有人专注于理论风险。但从我的角度来看,这不是重点。大多数工作并未发表,OpenAI真的应该做更多努力来公开这些成果。

与其他公司在每场职业博览会上随意发放宣传品不同,OpenAI 几乎不提供任何宣传品(甚至对新员工也是如此)。取而代之的是“限时抢购”活动,你可以订购库存商品。第一次活动导致Shopify商店崩溃,需求量太大。内部曾流传一篇关于如何正确发送JSON请求并绕过限制的帖子。

几乎所有成本都微不足道,与GPU成本相比。举个例子:作为Codex产品的一部分开发的某个小众功能,其GPU成本与我们整个Segment基础设施相当(虽未达到ChatGPT的规模,但处理了相当一部分互联网流量)。

OpenAI 或许是我见过最令人震惊的雄心勃勃的组织。你可能会认为拥有全球最受欢迎的消费级应用之一已经足够,但该组织渴望在数十个领域展开竞争:API 产品、深度研究、硬件、编程代理、图像生成,以及尚未公布的其他几个领域。这里是将创意付诸实践的沃土。

该公司非常重视推特。如果你发布与OpenAI相关的推文并引发热议,很有可能有人会看到并考虑采纳。我的一个朋友开玩笑说:“这家公司靠推特氛围运转。”作为一家消费类公司,或许这并不算错。当然,使用情况、用户增长和留存率等数据分析依然重要——但氛围同样关键。

OpenAI的团队比其他地方灵活得多。在推出Codex时,我们需要几位经验丰富的ChatGPT工程师的帮助来赶上发布日期。我们与一些ChatGPT的工程经理会面提出了请求。第二天,就有两位顶尖人才准备好投入工作并提供帮助。没有“等待季度规划”或“重新调整人员配置”的拖延。进展非常迅速。

领导层非常透明且深度参与。这在OpenAI这样的公司可能显而易见,但每位高管都显得非常投入。你会经常看到gdb、sama、kw、mark、dane等人在Slack上积极参与讨论。这里没有缺席的领导者。

代码

OpenAI 使用一个 巨大的单仓库,其中大部分是 Python(尽管还有越来越多的 Rust 服务和一些 Golang 服务,用于网络代理等)。这会产生许多看起来奇怪的代码,因为编写 Python 的方法有很多种。你会遇到 10 年经验丰富的谷歌老手设计的可扩展库,以及新晋博士们随手写下的 Jupyter 笔记本。几乎所有操作都围绕 FastAPI 创建 API 和 Pydantic 进行验证。但并没有严格执行的风格指南。

OpenAI 在 Azure 上运行一切。有趣的是,我认为值得信赖的服务只有三个:Azure Kubernetes Service、CosmosDB(Azure 的文档存储)和 BlobStore。这里没有 Dynamo、Spanner、Bigtable、BigQuery、Kinesis 或 Aurora 的真正等价物。自动缩放单元的概念在这里并不常见。IAM 实现通常比 AWS 提供的要有限得多。而且,这里有很强的倾向于内部实现。

在人员方面(至少在工程领域),存在一个非常显著的 Meta → OpenAI 人才流动通道。在许多方面,OpenAI 类似于早期的 Meta:一款爆款消费级应用、初级基础设施,以及渴望快速发展的愿望。我所见到的从 Meta 和 Instagram 引入的大部分基础设施人才都非常出色。

将这些因素结合起来,你会发现基础设施的许多核心部分都让人联想到Meta。例如,内部重新实现了TAO。还有努力在边缘端整合身份认证。当然还有许多我未了解的其他项目。

聊天功能非常深入。自ChatGPT走红后,代码库的大部分结构都围绕聊天消息和对话展开。这些基础组件已深度融入系统,忽视它们可能带来风险。我们在Codex中稍作偏离(更多借鉴了响应API的经验),但仍大量借鉴了现有技术。

代码至上。 而不是依赖于某个中央架构或规划委员会,决策通常由计划执行工作的团队做出。结果是,存在强烈的行动偏好,且代码库中常常出现大量重复的组件。我估计见过至少六种用于队列管理或代理循环的库。

有几个领域中,快速扩大的工程团队与缺乏工具链的结合导致了问题。sa-server(后端单体应用)成了一个杂乱无章的堆放区。CI在主分支上崩溃的频率远高于预期。即使在GPU上并行运行测试用例并考虑部分依赖项,也可能需要约30分钟才能完成。这些问题并非无法解决,但这是一个很好的提醒,此类问题普遍存在,且在快速扩展时很可能变得更糟。值得称赞的是,内部团队正投入大量精力改进这一状况。

其他收获

大型消费品牌是什么样子的。直到我们开始开发Codex,我才真正理解这一点。一切都以“付费订阅用户”为衡量标准。即使是像Codex这样的产品,我们最初也主要从个人使用角度考虑用户引导流程,而非团队场景。这对我来说有点难以接受,因为我之前主要从事B2B/企业级业务。只需一键启动,就能从第一天起获得流量。

大型模型是如何训练的(高层次概述)。从“实验”到“工程化”存在一个连续谱。大多数想法最初都是从小规模实验开始的。如果结果看起来有前景,它们就会被纳入更大规模的运行中。实验既涉及调整核心算法,也涉及调整数据组合并仔细研究结果。在大型项目中,大规模运行几乎就像巨型分布式系统工程。会出现一些意料之外的边界案例,需要你自行调试。

如何进行GPU计算。在Codex发布过程中,我们需要预测负载容量需求,这是我第一次真正进行GPU性能测试。核心要点是,你应该从所需的延迟要求(整体延迟、令牌数量、首次令牌时间)出发,而非从底层分析GPU能支持的范围。每个新模型迭代都可能导致负载模式发生剧烈变化。

如何在大型Python代码库中工作。Segment结合了微服务架构,主要使用Golang和TypeScript。我们并没有像OpenAI那样拥有如此广泛的代码库。我学到了很多关于如何根据参与开发的开发者数量来扩展代码库的知识。你必须为“默认情况下正常工作”、“保持主分支干净”和“难以误用”等事项设置更多的防护措施。

发布Codex

我最后三个月在 OpenAI 的工作重点之一是发布 Codex。这无疑是我职业生涯中的亮点之一。

为了铺垫背景,早在 2024 年 11 月,OpenAI 就设定了 2025 年发布编码代理的目标。到2025年2月,我们已经有一些内部工具在使用这些模型,效果显著。我们也感受到了推出一个专门用于编码的代理的压力。显然,这些模型已经发展到足以在编码中发挥重要作用(看看市场上新兴的编码工具浪潮)。

我提前结束产假返回公司,参与Codex的发布工作。我返回后一周,两个团队进行了(略显混乱的)合并,并开始了一场疯狂的冲刺。从项目启动(第一行代码编写)到完成,整个产品仅用了7周时间。

Codex的冲刺可能是近十年我经历过的最艰难的工作。大多数夜晚要工作到11点或午夜。每天早上5:30被新生儿叫醒。7点再次前往办公室。周末也大多在工作。我们作为团队全力以赴,因为每一周都至关重要。这让我想起了在YC的日子。

这种工作节奏的惊人程度难以言表。我从未见过任何组织,无论大小,能在如此短的时间内从一个想法发展到一个完全发布且免费的产品。范围也不小;我们构建了一个容器运行时,优化了仓库下载,微调了一个自定义模型来处理代码编辑,处理了各种Git操作,引入了一个全新的功能领域,启用了互联网访问,最终得到了一个使用起来令人愉悦的产品。4

无论如何,OpenAI仍然保留着那种创业精神。5

好消息是,合适的人可以创造奇迹。我们是一支由约8名工程师、约4名研究员、2名设计师、2名GTM和1名PM组成的资深团队。如果没有这个团队,我认为我们会失败。没有人需要太多指导,但我们确实需要相当程度的协调。如果你有机会与Codex团队的任何人合作,请知道他们每个人都非常出色。

在发布前一晚,我们五个人熬夜到凌晨4点试图部署主单体(一个耗时数小时的任务)。然后我们回到办公室,准备上午8点的发布公告和直播。我们启用了相关功能,开始看到流量涌入。我从未见过一个产品仅仅因为出现在左侧边栏就能获得如此迅速的增长,但这就是ChatGPT的威力。

在产品形态方面,我们最终确定了一种完全异步的形态。与Cursor(当时,它现在支持类似模式)或Claude Code 不同,我们旨在让用户启动任务后,让代理在自己的环境中运行。我们的设想是,最终用户应将编码代理视为同事:他们向代理发送消息,代理花些时间完成工作,然后返回一个 PR。

这确实是一场赌博:目前我们处于一个略显尴尬的阶段——模型虽已达到“良好”水平,但尚未达到“卓越”境界。它们能持续工作数分钟,但还无法维持数小时。用户对模型能力的信任程度差异巨大,而我们甚至尚未明确模型真正的能力边界。

从长远来看,我认为大多数编程工作将更像Codex。在此期间,我们将拭目以待各种产品如何发展。

Codex(或许并不令人意外)在处理大型代码库时表现出色,能够理解如何在其中导航。我认为与其他工具相比,Codex最大的区别在于能够同时启动多个任务并比较其输出结果。

我最近看到了一些公开数据(https://github.com/aavetis/PRarena),这些数据比较了不同大语言模型(LLM)代理的 PR。仅从公开数据来看,Codex 已经生成了 63 万个 PR。这相当于自发布以来(你可以自行推测私有PR的数量)的53天内,每位工程师平均贡献了78,000个公开PR。我怀疑自己一生中从未参与过如此有影响力的项目。

结语

说实话,我最初对加入OpenAI感到有些顾虑。我不确定放弃自由、接受上司管理、成为庞大机器中微小一环会是怎样的体验。我一直低调处理加入一事,以防万一这并非合适的选择。

我希望从这次经历中获得三点收获…

  • 培养对模型训练方式及能力发展方向的直觉
  • 与杰出人才合作并从中学习
  • 推出一款卓越的产品

回顾这一年,我认为这是我做过的最佳决策之一。很难想象在其他地方能学到更多。

如果你是创始人且觉得自己的初创公司毫无进展,你应该要么1) 深入重新评估如何增加成功机会,要么2) 加入一家大型实验室。现在是构建的绝佳时机。但这也是展望未来走向的绝佳时机。

在我看来,通往通用人工智能(AGI)的道路目前是一场三强争霸:OpenAI、Anthropic 和 Google。这些组织将根据各自的基因(消费端 vs 企业端 vs 坚实的基础设施 + 数据)采取不同的路径。6 在这三家机构任职都将是一次开阔眼界的经历。


感谢Leah在深夜时段承担了大部分育儿责任,给予我极大的支持。感谢PW、GDB和Rizzo给予我这次机会。感谢SA团队成员教会我工作流程:Andrew、Anup、Bill、Kwaz、Ming、Simon、Tony和Val。感谢Codex核心团队给予我难忘的经历:Albin、AE、Andrey、Bryan、Channing、DavidK、Gabe、Gladstone、Hanson、Joey、Josh、Katy、KevinT、Max、Sabrina、SQ、Tibo、TZ和Will。我永远不会忘记这次冲刺。

Wham.

  1. 每次有领导层离职时,人们总喜欢过度解读其中的戏剧性,但我认为其中约70%的情况都可归因于这一事实。
  2. 我认为我们正处于一个轻微的阶段转变中。公司正在从外部聘请大量高级领导层。我总体上支持这一做法,我认为公司从引入新的外部基因中受益良多。
  3. 我觉得,打造有史以来增长最快的消费类产品,往往会积累大量经验。
  4. 当然,我们也站在了巨人的肩膀上。CaaS团队、核心强化学习团队、人类数据以及通用应用基础设施使这一切成为可能。
  5. 我们也继续推进了相关工作。[https://help.openai.com/en/articles/11428266-codex-changelog]
  6. 几周前,Meta 进行了几笔重大招聘。xAI 推出了在基准测试中表现优异的 Grok 4。Mira 和 Ilya 都拥有顶尖人才。或许这将带来改变(人才确实出色)。他们还有一些追赶的空间。

本文文字及图片出自 Reflections on OpenAI

共有 189 条讨论

  1. 前员工对工作经历做出积极评价的情况并不常见。

    我认为这并不意味着OpenAI有什么特别之处。这只是一个很好的提醒,即绝大多数“我为何离开”的帖子本质上都在试图为自己与组织不匹配找借口,并将责任完全归咎于组织。

    换个角度看:这篇文章中提到的“极度自下而上”的另一面是,有些人感到迷失方向,因为没有明确的路线图或为他们量身定制的职责范围。同样,“强烈的行动偏好”和“说变就变”的另一面是,一切都混乱无序,高管层缺乏一致的愿景。

    这让我有点发笑: “尽管OpenAI在媒体上经常受到批评,但我遇到的每个人都在努力做正确的事”——没错!这在几乎每家最终做出道德上可疑决策的公司中都是如此!没有反派在掌舵。这是好人对事情的合理化解释。过程是这样的:我们是好人。如果我们是邪恶的,我们可以做比X更糟糕的事情!当然,有些人可能会反对X,但他们忽略了大局:X将间接造福社会,因为我们会将由此获得的资金和权力用于善举。如果没有我们,坏人可能会做X!

    1. 我绝不会在公开场合发表对雇主的批评。这只会损害我的职业生涯(正如积极态度只会对它有帮助)。

      鉴于Altman据说有多么报复心强,这对OpenAI来说更是双倍的风险。这个人甚至说他们会搜查社交媒体!

      无论是有意还是无意,这篇帖子的一个目的可能是为了帮助这个人自己的个人网络;试图将他那奇怪的14个月任期描绘得尽可能美好。我认为这一切让他看起来像个目标,这对雇主来说是可取的,所以我想这正在起作用。

      1. Calvin共同创立了Segment,该公司以$32亿美元被收购。他不是典型的员工。

        1. 他仍然像其他人一样容易被操纵,并受激励驱动。

          1. 什么激励?在没有任何依据的情况下,仅仅因为“有可能”就提出荒谬的假设,这并不是一个很有见地的观点。

            1. 我并不是在提出荒谬的假设,但他的行为让我觉得有些不对劲。一个拥有足够财富过上多辈子的人,像着了魔一样工作,推出一款与其他数十家公司产品几乎无异的產品,将育儿责任全部交给妻子,然后在14个月后离开,坚持称自己并未 burnout,却没有明确的下一步计划,甚至没有说“我想享受养育孩子的乐趣”。

              他在OpenAI的经历显得过于积极和甜腻,其中一些令人震惊的幼稚评论已被他人指出。我认为其中存在明显动机。一个原因是,他可能处于 burnout 状态,但不愿承认。另一个原因是,他正在展望未来:为未来可能再次创业时保留融资和人脉资源。他可能感到孤独,只是希望生活中能有其他人。或者希望自己正在做的事情在某种程度上“有意义”,而他的其他公司并没有做到这一点。

              我完全不知道他到底在想什么。但认为他只是因为成功退出而对激励措施持抵抗态度的说法似乎不真实。我认识一些和他一样富有的人,他们和我没什么不同。

              1. 当我在Segment工作时,Calvin就是这样工作的。他选择自己想做的事情,并投入极大的精力去做。人们通常因为缺乏自主权而 burn out,而不是因为工作时间过长。

                此外,请记住,每个人都不一样。对你来说困难的事情,对别人来说可能很容易,反之亦然。

                1. > 人们通常因为缺乏自主权而 burnout,而不是因为工作时间长。

              2. 不确定这是真知灼见还是只是精心撰写的有深度的公关话术。

                我不知道其他人是否也有这种感觉,但越是了解 OpenAI,我越是喜欢 Meta。而我几年前就删除了 Facebook。

    2. > 这里没有邦德式的反派掌权。只是好人对事情的合理化解释。

      我曾在一家为赌场开发软件的公司工作过几年,那里绝对不是这种情况。赌场绝对有毫无羞耻感的反派掌权。

    3. > 看到前员工对工作经历做出积极评价的情况相当罕见

      对于OpenAI来说则更为常见,因为如果你在离开后对OpenAI发表负面评论,你将失去所有已归属的股权。

      1. OpenAI 从未强制执行过这一规定,后来将其移除,并承认这是一个重大错误。我在 OpenAI 工作,对这件事感到失望,但很高兴他们已经解决了这个问题。它不再悬而未决,因此建议 Calvin 的帖子是积极的,因为他试图保护自己的股权不被剥夺,这种说法可能并不准确。(当然,你可以争论说,通常情况下,每个人都会对他们拥有股权的公司持积极态度)

        1. > 这件事不再悬而未决,

          据我所知,要约收购的限制仍然存在。

          当然,也许OpenAI不再能以$0取消你的已归属股权……但你无法出售的(不支付股息的)股权有多大价值?(你甚至如何用它来借款?)

          1. 不,很高兴报告这个问题也已解决。

            (如果股权取消被暂停,但股权仍可能被冻结,那将是一个相当虚假的解决方案。取消和冻结在事实上是相同的,直到第一次股息支付,这可能需要几十年。)

            1. 那么OA PPUs现在可以无限制地出售和转让给任意买家,不受要约收购窗口的限制吗?

      2. 《不再沉默法案》(SB 331)于2022年1月1日在加利福尼亚州生效,该州是OpenAI的总部所在地。该法案限制了雇主的不利条款和报复行为,这可能使此类行为在加利福尼亚州非法,但我不是律师。

        1. 即使是违法的,你也必须在法庭上与他们抗争。

          OpenAI一定会因此惩罚你,并很可能以你为例,无论结果如何。

          目标是企业惩罚,而非法律公正。

      3. 完全正确。

        员工在X平台上支持萨姆(Sam)回归CEO职位时表现出的类似教派行为并非偶然,当时他被OpenAI董事会解职。

        “OpenAI没有员工就一无是处”

        所有“AGI”(实际上是员工的兰博基尼、顶层公寓、别墅和豪宅)都岌岌可危,如果股权归零或员工在离职后公开批评OpenAI,他们将被禁止出售股权。

        1. 是的,原因在于OpenAI员工合理地认为,他们可以在相对较短的时间内从股权中获得类似谷歌级别的巨额回报,而Altman和Brockman离开OpenAI并加入一家资金雄厚的竞争对手,加上OpenAI公司管理层公开反对商业化其技术,将破坏这些回报。

          在这种情况下,我也会显得像个教徒(但我也不相信AGI是真实存在的,所以不会有与这种行为相抗衡的教派信仰体系)。

          1. > 我也不相信AGI是真实存在的

            为什么不?我认为我们离实现AGI还很遥远,但目前我未看到任何物理限制能阻碍AGI的实现。

            这与我们当前对超光速旅行或时间旅行的理解一样,并非完全不可能。

            1. 如果我们接受智能的具身化理论(虽然它绝非唯一理论,但极具影响力且令人信服),这意味着构建AGI相当于构建一个真实的人类。不是木偶,不是模拟,不是“类似人类”,而是真正、完全具身化的人类,包括肠道细菌群落,因为根据具身化理论,这些因素也会影响智能。

              在这种框架下,这几乎与时间旅行一样不可能,真的。

    4. 以下是我的看法——当阿尔特曼忙于向公众宣称AGI将在未来两周内到来,并讲述那些既令人不安又充满乌托邦色彩的模糊故事时,他(及其同行领导者)实际上一直在努力将OpenAI转型为一家拥有杀手级产品的公司,而从文章中可以看出,他们在这一转型中表现得相当出色且成功。

      考虑到高风险、资金投入以及不可避免的个人 ego,作者可能在过程中受了些伤,或在内部政治斗争中吃了亏(记得他们提到过开发了多个 Codex 原型,看到别人的版本被选中而非自己的,想必很沮丧)。

      另一种可能的解释是,作者已经厌倦了——他已经赚够了足够维持一生的钱,刚刚组建了家庭,在世界上留下了自己的印记,不再有动力(或能力)与那些充满激情的应届毕业生竞争。

      1. > 记得他们提到过他们建造了多个Codex原型,看到别人的版本被选中而不是自己的,一定很沮丧

        这取决于人们的心态。这就像参加黑客马拉松却没有获胜。大多数人仍然会受到他人作品的启发,迫不及待地想再次尝试。

        ……当然,不是每个人都喜欢参加黑客马拉松

        1. > OpenAI 或许是我见过最令人胆寒的雄心勃勃的组织。

          这种雄心似乎源于比尔·盖茨对阿尔特曼的极限施压,而阿尔特曼也迎难而上。让人联想到 GPT-2 时代著名的“盖茨演示”。

          不过,整篇文章读起来更像是一篇吹捧之作,而非诚实的反思。

    5. 我不是在说 OpenAI,因为我真的不知道。但反派角色确实存在。

      通常,一级人员只是被权力和金钱驱使到不健康的程度。最糟糕的是那些对某件事深信不疑的人。即使是看似温和的事物。

    6. > 看到前员工对自己的工作经历做出积极评价的情况并不常见。

      当然,但这段话让我不禁好奇,作者为了拿到薪水愿意对他人做出什么:

      “Nabeel Quereshi 有一篇精彩的文章《关于 Palantir 的反思》,他在文中探讨了 Palantir 的独特之处。我也想为 OpenAI 做同样的事情”

    7. > 看到前员工对自己的工作经历进行正面解读的情况并不常见。

      顺便说一句,我对许多前雇主都有积极的经历。不是所有雇主,但许多雇主都是如此。

      1. 我也是这样。如果我写一篇关于我前雇主的诚实文章,它的语气会与这篇文章中写的内容非常相似

    8. > 看到前员工对工作经历做出积极评价的情况并不常见。

      我喜欢我的工作和老板!

    9. HN上大多数以“对[前雇主]的反思”为题的帖子都是积极的。

  2. 这是一篇很棒的文章。

    以下几点给我留下了深刻印象:

    – 进展是循序渐进的,且似乎由自下而上的、基于实力的方法驱动。并非自上而下的总体规划。本质上,好点子可以来自任何地方,领导者是根据执行力和点子质量晋升,而非政治手腕。

    – 那里的人似乎有权在未经许可的情况下自主开发项目,这似乎导致了多个并行项目,其中有前景的项目会获得资源。

    – 那里的人们初衷是好的。尽管面临公众批评,他们确实试图做正确的事,并应对所承担的巨大责任。

    – 产品深受公众情绪影响,或者更直白地说,公司“运行在推特氛围上”。

    – GPU的成本之高改变了一切。它是塑造财务和工程优先级的唯一因素。计算能力的成本如此之高,以至于几乎所有其他基础设施成本都成了“微不足道”的数字。

    – 我喜欢将通往AGI的道路描绘成一场三方竞争,参与者分别是OpenAI(消费级产品基因)、Anthropic(商业/企业基因)和Google(基础设施/数据基因),每个组织独特的文化都塑造了其对AGI的独特方法。

    1. > 我喜欢将通往AGI的道路描绘为OpenAI(消费类产品基因)、Anthropic(商业/企业基因)和Google(基础设施/数据基因)之间的三方竞争

      不应忘记Meta,它也拥有消费类产品基因。他们实际上倡导将消费者本身作为产品。

      1. “嘿,推特氛围是一种指标,所以如果你想被听到,一定要在推特上提到公司。”

        Altman唯一听从的两个人是Peter Thiel和Bill Gates。所以,继续发布那些信息吧。

        整篇文章读起来更像是一篇吹捧之作,而非诚实的反思。我们这些生活在美国以外的人并不买账。在《人工智能帝国》一书中揭露的关于OpenAI的一切,让我们至今仍感到震惊。

      2. 哈哈,我差点没看出那里的讽刺 🙂

  3. > Codex冲刺可能是近十年我最辛苦的工作。大多数夜晚要工作到11点或午夜。每天早上5:30被新生儿吵醒。7点再次前往办公室。周末也大多在工作。

    这个行业的时间压缩/时间膨胀现象太严重了:大型项目在几周内就被推出并发布;职业生涯在几个月内就被决定。

    我担心这种工作方式对员工的可持续性,考虑到 burnout 的风险。

    1. 如果有人试图要求我以这种方式工作,我会坚决拒绝。

      但当我全身心投入到一个对我来说有趣且重要的项目中,进行几周或几个月的连续冲刺时,我也会拒绝任何试图限制我的人!

      仅代表我个人而言,我能察觉到这类项目在初期就让我的思维开始活跃。我提前知道自己到最后会耗尽精力,因此会相应规划。

      幸运的是,我找到了一个以同样方式看待世界和彼此的社群。这类项目往往没有物质回报,但其中少数有回报的项目(结合非常有限的物质需求)就能支撑其他项目。

      1. 我认为OpenAI的高层意识到这种模式不可持续,因此推出了“健康周”计划。

      2. 我很好奇这个社区的情况。这是一个正式的团体,还是你一生中结识的人?

        1. 后者。我的意思是,我觉得在这里混迹的人中,有相当一部分人都有那种性格。

          那只是恰好是喜欢和我在一起的人,我也喜欢和他们在一起。这是我希望自己早些时候能更刻意培养的东西,但并非我后悔的事情。

          在我看来,这里有很多艺术家/作家/黑客,相当数量的宗教人士,以及从事服务他人工作的人。那些在无聊或困难的地方默默做着酷炫事情的人……他们全力以赴的冲刺至少有同样多的次数会导致模糊或失败,而非成功。很少有富人,也很少有人追求名利。

          另一方面,我和我的社交圈都不太擅长保持一致性——但我们彼此都默认并容忍这一点。还有很多“正常”的事情我没有参与,如果我努力的话,可能也能参与其中。我不知道这对于这里以商业为导向的人意味着什么,但我猜这包括诸如企业或非营利组织董事会、参加体育赛事、高尔夫球活动、零售政治、尊贵人士社交俱乐部、“夏季度假”、拥有富人专属的房产或车辆等——这对我来说都没问题!

          过犹不及 🙂

    2. 这个已经独立富裕的人选择每周工作16-17小时,而不是照顾新生儿,并感谢他的伴侣承担“育儿职责”。这基本上告诉你一切你需要知道的。

    3. 这完全不可持续,但如果职业生涯中只发生一两次,还是可以接受的;我认识一些经历过那个过程、在那家公司工作的人,他们最终都焕发了活力。

    4. 我无法想象让伴侣承担那样的育儿压力。向OP的妻子致敬,她确实做到了,而且我很高兴她在最后得到了认可,但天啊。

    5. 从事那样的工作会彻底毁掉我的生活。在那种条件下,我根本没有时间做个好丈夫和好父亲,有些东西不该被牺牲。

    6. 作者在OpenAI工作了14个月后离开,这似乎是 burnout 的时间。

      1. 情况比这更糟。有很多权力斗争和自以为是的人。Altman在推特上称其中一名员工为“爱因斯坦”,有人认为他们被选中是为了超越人类,有人认为他们正在与中国开战,有人想拯救世界,有人想看着它燃烧,还有人只是想让自己的名字与盖茨和乔布斯并列。

        这是前员工在《人工智能帝国》中所述的内容,也是Amodei和Kaplan离开OpenAI创立Anthropic的原因。

      1. > 我提前结束产假回来,是为了参与Codex的发布。

        优先级很明显。

        1. 那部分让我吃了一惊。我希望他的孩子永远不会知道自己被放在了第二位。

    7. 我确信他们回首往事时会微笑,对吧?

    8. 考虑到他们获得的报酬,这相对容易。普通人在更艰难的工作中获得的报酬要少得多,例如在亚马逊仓库工作或进行上门销售等。

    9. 我的观点是,我认为 burn out 与单纯的工作时长关系不大。我认为它更多与工作中的动力感和自主权有关。你可以在合适的团队中连续六个月每周工作100小时,但最终仍会感到充满活力。但如果工作感觉像是在泥沼中跋涉,你很快就会 burnout,即使每周只工作50小时。我发现,拥有感与 burnout 的感觉密切相关。

      1. 如果你的工作有意义且得到合理报酬,让人们努力工作来填写360度评估,他们应该会嘲笑你。

      2. 我希望这不是一个激进的观点,因为它100%正确。

        人们混淆了“倦怠”和“过度工作”这两个术语,因为它们在语义上似乎相似,但实际上非常不同。

        你可以通过休假来解决过度工作的问题。倦怠是一种更深层次的存在性创伤。

        我最严重的 burnout 其实发生在一段轻松的工作中,我一直处于工作量不足的状态,但对我们所做的事情缺乏自主权和目的感。

      3. > 你可以连续六个月每周工作100小时,只要在正确的团队中,你仍然会在结束时感到精力充沛。

        年轻人的青春被浪费了。

    10. 我对工作这么久没什么意见,但工作这么久而且还得去办公室度过那些漫长时光,听起来就像折磨。

    11. 那些热爱自己工作的人不会 burn out,因为他们投入项目中的每一刻都充满愉悦。我个人讨厌与那些厌恶自己工作的人共事,并且期待他们 burn out

      1. 当然,但这个作息安排大概意味着每晚只能睡5小时。除了极少数人外,长期在这种状态下工作并保持最佳状态是不可能的。每晚睡足8小时能让大多数人成为更好的工程师,也是更值得相处的人。

      2. “除非你愿意每天工作17小时,否则你并不真正热爱自己的工作”是个有趣的观点。

        你可以热爱自己的工作,但如果因为外部压力而做超过可持续范围的工作,你就会 burn out。享受工作并不是防止 burn out 的疫苗。我实际上认为,那些热爱自己工作的人更难找到平衡。那些讨厌自己工作的人通常无法被激励去做超过最低要求的工作。

        1. 真奇怪,我们从“每周工作4小时”和那些关于历史上在各自领域著名的人每天只花几小时在他们最著名的事情上的图表,到“每天工作12小时以上,否则你就没用”。

          这也是我最近读到的几个例子之一,有人炫耀“看我做了多少辛苦的工作”,却忽略了他们有新生儿,而实际上是别人做了所有辛苦的工作。

        2. 我对gp的表述有不同理解:“如果你每天工作17小时,最好尽快停止,除非你是出于对工作的热爱。” 从这个意义上说,你和GP可能都认为,如果你是因为外部压力而这样工作,这对你和你的同事都是不好的。

          我并不乐于看到任何人的痛苦或 burnout。但我确实感到 relief,当有人因为节奏或强度而痛苦时,通过为他们找到一个更可持续的平衡来缓解他们的痛苦。

          我认为,即使是那些被这种努力所激励的人,最终也会付出代价:在我看来,在这样一段时期之后,我“休养生息”——照顾 extended family 和社区,做一些敷衍了事的“日常工作”,沉浸在大自然中——几乎与那段创意爆发期同样长久。

          1. 我确实同意你所说的观点。我将“他们所做的工作”理解为“他们的工艺”,但如果指的是“他们特定的工作条件”,那确实会产生不同的解读。

            我认为有很多人都热爱自己的工艺,但他们所处的特定工作条件会导致 burnout,而我只是想说,这并不意味着他们对工艺的热爱有所减弱。

    12. > 担心这种工作方式对员工的可持续性,考虑到 burnout 的风险。

      考虑到 OpenAI 支付给工程师的薪资水平,这就是随之而来的代价。这表明这不是托儿所,也不是适合消极怠工者或胆小者的地方,尤其是在人工智能竞争的中心地带的初创公司。

      现在有大量绝望的“软件工程师”排着长队,愿意为在OpenAI获得一份工作而拼命,他们不会容忍“ burnout”这个词,甚至可能工作24小时来阻止他人获得这份工作。

      对于那些热爱自己工作的人来说,“ burnout”这个词对他们来说不存在。

    13. 我不是说这很容易,但大多数有动力的人都会这样做。如果你意识到这一点,那可能意味着你把这份工作看作是一份工作,而不是你的使命。

  4. 工程师们认为自己是在创造上帝,这真是个很好的营销策略。我无法夸大其词。甚至很难对此保持理性。我实际上并不相信这是真的,我认为这纯粹是炒作,大语言模型(LLMs)甚至无法接近通用人工智能(AGI)。但这个想法某种程度上对批评或怀疑具有免疫力:你可以总是回应“但如果这是真的呢?”。 stakes 如此之高,潜在的无限回报会压倒任何概率。0.00001%乘以无限等于无限的期望值,所以你必须这样对待它。最好的营销,它自己就写好了。

    1. “但如果这是真的呢?”

      关于下一个令牌预测和涌现属性,没有任何假设(他们不知道规模会允许它进行概括)。“如果这是真的呢”是大语言模型(LLMs)故事的一部分,这里有一个神秘的元素。

      1. > 没有人假设过下一令牌预测和规模能够展现涌现特性。

        在它发生之前,没有人假设过?难以置信。

        1. 其他人可以确认,但据我所知,他们当时并不知道情感分析、推理、少样本学习、思维链等技术会在大规模应用中出现。情感分析是他们最早发现的大规模模型能够泛化的技术之一。请记住,他们当时只是试图提升对下一个令牌的预测能力,并没有具体计划实现“指令遵循”等功能。我们无法断言参数数量再增加一个数量级就一定无法取得成果(它可能,出于未知原因,就像之前一样)。

          这与哥伦布寻找印度却意外抵达美洲的故事有一定相似性。

  5. 他于去年五月加入,近期离职。在公司停留约一年时间。

    我好奇一年时间是否足以让程序员理解代码库,更不用说做出有意义的代码贡献?但我们看到跳槽现象日益普遍,导致产品品质下降。我好奇跳槽者为公司带来了哪些价值。

  6. 这很好,但我最想知道的是,在 OpenAI 内部开发新产品时,大语言模型(LLMs) 在开发过程中发挥了什么作用,以及发挥了多大作用。

    1. 他描述了 53 天内每位工程师提交了 78,000 份公开拉取请求。哈哈。所以很可能 99.99% 都是大语言模型(LLM) 编写的。

      帖子中有很多有用的信息,他能够公开分享这么多信息让我感到惊讶。我可能会将大部分业务流程信息保密。

      编辑:别管了。这 78,000 个拉取请求是 Codex 所有用户提出的,而不是 Codex 所有工程师提出的。

  7. 对于一家在如此短时间内实现如此快速增长的公司,我仍然对它缺乏技术作家感到惊讶。说文档可以更好是一种委婉说法,但我仍然找不到在那里工作的其他技术作家。与Anthropic及其文档相比。

    我不知道不聘请技术作家的理由是什么,除了没有人建议过,这很遗憾。优秀的开发工具需要优秀的文档,而优秀的文档需要团队来拥有并将其作为产品进行发展。

    1. 高层认为这没有价值。在DigitalOcean,他们曾拥有一支卓越的技术写作团队,团队成员拥有多年经验,创作了行业内最优秀的技術文档,但在裁员开始时,写作团队是最先被裁减的。

      人们只将其视为成本,别无其他。

  8. 哇,这里有大量有趣的内容,其中许多信息是我从未见过的。值得花时间深入研究。

  9. >安全问题其实比你想象的要严重得多

    考虑到带领不同安全团队的人员都已离职或被解雇,超级对齐计划完全失败,其他员工关于安全工作缺乏支持的各种说法,我认为这一表态完全脱离实际,甚至有故意误导之嫌。

  10. >这里有一个推论——大多数研究都是通过“狙击”研究人员来解决特定问题。如果某件事被认为无聊或“已解决”,它很可能不会被研究。

    这是一个非常有趣的观点,如果准确,这可能成为他们的阿喀琉斯之踵。

    1. 这不是“他们的”阿喀琉斯之踵。这是人类工作方式的阿喀琉斯之踵。

      大多数处于领域顶端的科研人员之所以能达到这一高度,是因为他们真正热爱这一领域,并愿意投入大量时间去做自己热爱的事情。

  11. 有趣的阅读!

    完全忽视中国实验室在通用人工智能(AGI)领域的参与似乎是个失误。我很难相信不会有至少一两个竞争者

    1. 他们没有(好的)GPU,那么他们如何才能真正竞争?

  12. > 我最欣赏的是,该公司真正践行了“让AI惠及大众”的理念。前沿模型并非仅限于与企业签订年度协议的高端用户。全球任何人都可以直接使用ChatGPT获取答案,即使未登录。该平台提供可注册使用的API——且大多数模型(即使是SOTA或专有模型)通常会迅速整合到API中供初创企业使用。

    此处的对比对象应明确为其他前沿模型提供商:Anthropic、Google,以及潜在的Deepseek和xAI。

    将它们进行比较会得出截然相反的结论——OpenAI 是唯一一家通过严苛的身份验证机制(也有人提到 Worldcoin)来限制其前沿模型 API 访问权限的模型提供商。Anthropic 和 Google 并未采取此类措施。

    OpenAI 隐藏了其模型的 CoT(推理时计算能力)。而 Anthropic 至今仍在所有模型中公开展示其 CoT。

    这显然只是在自我吹捧并进行营销。

    1. 是的,OpenAI 作为一家灵活的初创公司,声称能迅速调整方向,但实际上 Google 是在回应他们,并在技术上已全面超越 OpenAI,唯一例外是图像提示的准确性。

    2. 计算机科学中只有两件难事:缓存失效和命名事物:

      CloseAI。

  13. > OpenAI的一个不寻常之处在于,一切,我是说一切,都运行在Slack上。

    如今这并不罕见。我敢打赌,过去~10年成立的每家科技公司都采用这种方式。许多老牌公司也已放弃邮件。

    1. 我好奇Salesforce能利用多少这些数据,这简直是信息的金矿

      1. Slack合同里难道没有条款规定不能使用Slack API提取数据来训练AI吗?

  14. 我现在的人生和职业阶段,绝不会考虑工作那么长时间。错过篮球比赛、看不到孩子放学回家等等。我认为刚开始工作时,没有孩子,也许那种疯狂的加班会让人兴奋。但现在绝对不可能了

    1. > 我现在的人生和职业阶段,绝不会考虑那种工作时间。

      没关系。

      但别抱怨托儿所费用、私立学校学费,或是父母的养老院/医疗账单。

  15. 这是硅谷文化的大肆扩张:我真的要质疑这对任何相关方是否有利。Codex几乎没有市场份额,这很合理。它是一本教科书式的失败案例,只是它来自最强大的玩家,却被Claude代码在几周内超越。

    为什么要经历这一切?相反,一个更好的场景是OpenAI仔细评估不同的人工智能编程方法,并发布一个更成熟的产品,具有明确的差异化。就连亚马逊也刚刚这样做了,推出了Kiro

  16. Python单仓库是本文中最令人意外的部分

  17. 哇。感谢分享OAI内部机制的轶事,从工程角度来看。我好奇如果OAI不与Azure绑定,基础设施是否会更具弹性,是否需要更少的工程努力来实现大规模运行。

    我很少看到工程与研究之间的界限,以及公司内部的人如何看待 AGI、未来、劳动力等。是典型的 SF 幻想世界,还是在 OAI 工作的人有特定的价值观对齐?

  18. 这与 Deepmind 的文化完全相同,只是少了“一切都在 Slack 上”这一条。

  19. > 尽管OpenAI在媒体上常被批评,但我遇到的每个人都在努力做正确的事

    我怀疑很少有人会对自己的(前)同事说出相反的话,这意味着我们应该对此持保留态度。

    我认为(大多数)AT&T员工想让NSA监视我们吗?可能不会。谷歌工程师和ICE?Palantir和……嗯,我不知道,但我认为那里的人都知道Palantir在做什么。

  20. 这些一两年任期……我不知道,兄弟

  21. 尽管有“OpenAI并非铁板一块”的评论,但文章中对AI辅助编程的提及却是个有趣的遗漏——没有提到是否鼓励或反对。

  22. >很难想象能建造出像AGI这样有影响力的东西

    >…

    >OpenAI比你想象的更严肃,部分原因在于 stakes 真的很高。一方面,有构建 AGI 的目标——这意味着有很多事情需要做对。

    我有点惊讶人们还在喝这杯 AGI 酷乐

  23. 你选择将 OpenAI 的文化与洛斯阿拉莫斯进行比较,这很有趣。我无法判断你是否在暗示 AI 像核武器一样具有毁灭性。

  24. > 尽管OpenAI在媒体上常被批评,但我遇到的每个人都在努力做正确的事。

    引用Jonathan Nightingale在其关于谷歌破坏Mozilla的著名帖子[1]中的话:

    — 开始引用 —

    问题不在于个别“人行道实验室”成员是否怀有纯粹动机。我认识其中一些人,就像我认识Chrome团队的许多人一样。他们都是很棒的人。但要关注整个组织的行为。从宏观层面看,谷歌/字母表公司是非常有目的性的。

    — 结束引用 —

    将此替换为OpenAI

    [1] https://archive.is/2019.04.15-165942/https://twitter.com/joh…

  25. 这篇文章真是精彩绝伦。读到他们依然保持着YC风格的创业文化,实行能力至上的原则,员工可以从事自己感兴趣的工作,令人印象深刻。

    作为初创企业创始人,我经常担心以下几点:

    – 当我失去信心时迅速改变方向 – 生产环境中出现问题 – 以及速度问题,或者缺乏速度

    我学会了其实不必担心前两点。

    但如果OpenAI能在7周内推出Codex,小型初创公司就失去了原有的速度优势。这是一个重要的提醒,需要找到更好的方法来提升速度。

  26. 帖子中多次提到的GTM角色是什么?

    1. Go-to-market。外向型营销和销售、销售管道定义、数据分析。

      1. 这就是我所想象的,有点像我所见过的“产品营销经理”和“产品分析师”的混合体,但其他回复和OpenAI的职位发布表明,这可能是一个不同的角色,更注重实际操作,从研究到消费者产品的转化?

    2. GTM = 市场进入

      面向公众提供的可付费产品。

    3. “Go To Market”,即负责将技术转化为可供用户使用并付费的产品的团队。

  27. > 尽管OpenAI在媒体上常遭批评,但我遇到的每个人都在努力做正确的事。

    我理解作者的立场,但我会直接省略这一部分。在我从事科技行业(尤其是在旧金山湾区)的经历中,我学到的一点是:那些你未曾接触过的人,绝对在谋划做错事(TM)。

    1. 我曾与一些非常富有且颇有影响力的科技圈人士打交道,他们总是在谈论帮助他人,但仔细观察会发现,在这些谈论帮助他人的表象之下,许多人实际上只是在欺骗他人、吸毒,并沉迷于以自我为中心的灵性实践(尤其是加密货币圈的人)。

      我也不相信系统内的人能够评估自己所做的事情是否正确。我曾与时尚公司的高层交谈,他们真诚地认为自己的公司正在为环境做很多好事,而实际上他们基本上发明了快时尚。我亲身经历过,当我在一家广告技术公司工作时,我的思维逐渐扭曲,认为广告技术对世界并不那么糟糕,直到离开后我才意识到自己有多么错误。

    2. 这不仅仅是某些人做善事而另一些人做坏事的问题。即使所有员工都在做“正确的事”,高层管理者仍可能将整个团队引导至错误的方向。我认为这正是大型科技公司的写照。

    3. 当你的工作提供在多种不同风格的食堂用餐,这些食堂都精心设计成独立餐厅的模样,而对面就是一家校园内的银行,可以帮你处理所有财务需求,随后你乘坐公司运营的优步替代交通工具前往隔壁大楼开会,会议地点要么是那栋大楼的球池,要么是顶部有狐狸栖息的树木覆盖的屋顶——出于某种原因,屋顶上真的有狐狸, 很容易只关注你正在做的微小“好事”,而忽视公司高管们专注于的、却不希望你看到的滚烫垃圾堆。

      编辑:更不用说那非常慷慨的薪资了……

    4. 是的。我们已经知道Altman与极端分子如Yarvin和Thiel交往,并向极右翼政治事业捐赠数百万美元。我担心这个组织从根本上已经腐烂。如果政变成功就好了。

  28. “安全实际上比你想象的更重要,如果你读过Zvi或Lesswrong的文章。有大量人员致力于开发安全系统。鉴于OpenAI的性质,我看到更多关注实际风险(仇恨言论、滥用、操纵政治偏见、制造生物武器、自残、提示注入)而非理论风险(智能爆炸、权力追求)。这并非意味着无人研究后者,确实有人专注于理论风险。但从我的角度来看,这不是重点。”

    这段话毫无意义。如果你读过很多Zvi或LessWrong,那么“智能爆炸”正是你所指的安全风险!因此,读者“猜测”实际上是正确的,OpenAI并没有真正遵循Sam Altman的:

    “超人类机器智能的开发可能是对人类持续存在最大的威胁。还有其他威胁我认为更可能发生(例如,一种具有长潜伏期和高致死率的工程病毒),但它们不太可能像SMI那样摧毁宇宙中的每一个人类。”[0]

    [0] https://blog.samaltman.com/machine-intelligence-part-1

  29. 阅读前OpenAI员工的回忆录,探讨他们是否认为公司正朝着AGI的正确方向发展,会很有趣。当然,这至少构成保密协议的违反。

  30. 感谢分享。

    我感兴趣但未在您的帖子中找到的一点是:是否所有人都认同领导层公开分享的愿景,例如[1]?是否有人对当前路径能否通向AGI持怀疑态度,还是说所有人都已深信不疑?如果存在异议,内部是如何处理的?

    [1]: https://blog.samaltman.com/the-gentle-singularity

    1. 我不是作者,但我供职于OpenAI。员工对时间表和影响的看法存在广泛差异,这完全正常。我本人曾发表过一篇100页的论文,阐述为何我认为到2043年实现变革性AGI的可能性极低(https://arxiv.org/abs/2306.02519)。从非正式讨论中,我认为绝大多数员工并不认为我们距离一个可以整天在海滩上喝迈泰鸡尾酒的后稀缺乌托邦仅有数年之遥。但人们对人工智能的快速进步充满乐观,我认为预测一种具有自我改进潜力的技术的发展路径确实更具挑战性。这很大程度上取决于你对AGI的定义。从字面意义上说,GPT-4已经是AGI,因为它是一种具有一定通用性的人工智能。但在自动化经济意义上,它当然还远未达到。

      1. > 取决于你对AGI的定义

        OpenAI使用的是哪种AGI定义?

        我的定义:当你能将AGI置于现实世界中的机器人身体并与其像与人互动一样交流时,AGI就实现了。你可以让它开车、叠衣服或调制迈泰鸡尾酒,如果它不知道如何做,你教它,然后它就能做到。

      2. 谢谢!

        围绕这项技术的炒作强烈推动了这样一种叙述:我们正接近指数级增长,AGI就在眼前。很快,人工智能将治愈疾病、消除贫困并驱动类人机器人。这些场景出现在AI 2027预测中。

        基于我对这些工具的实际使用经验以及对它们工作原理的初步理解,我对此持高度怀疑态度。坦率地说,我甚至反对将它们与人类智能同等看待。这项技术确实存在许多值得探索的潜在有用应用,但当前的应用令人失望,而过度炒作使其显得比实际更强大的做法令人疲惫。更不用说,它们进一步恶化公共讨论、用更多垃圾信息和虚假信息淹没所有沟通渠道的潜在风险,正被广泛忽视。人工智能公司热衷于讨论“对齐”和“安全”,却从未正视这些更迫在眉睫的威胁。

        无论如何,得知OpenAI内部对影响和时间表存在分歧是件好事。无论如何,这将是一场值得关注的博弈。

    2. 从外部来看,目前尚无严格定义来界定什么是AGI,因此我猜想内部目标也不是一个单一的、统一的事物。首先需要让所有人先上关于智能本质的课程,然后再探讨各种不同类型的智能。毫无疑问,在如何实现既定里程碑的最佳途径上,内部存在分歧,而且对于这些里程碑是否正确也存在争议。这是战术上的分歧,而不是战略上的分歧。如果你认为大语言模型(LLMs)无法实现 AGI,你还会参与其中吗?

      1. 好吧,Sam Altman 对 ASI 有一个明确的定义,而 AGI 是他们思考已久的问题,因此可以推测他们一定对 AGI 有一个公认的定义。

        我的问题是,是否每个人都相信 ASI“近在咫尺”的愿景,更广泛地说,这条道路是否会通向 AGI。

        > 如果你认为大语言模型(LLMs)无法实现 AGI,你还会参与其中吗?

        人们选择与一家公司合作的原因多种多样。他们可能希望与聪明的人一起从事前沿技术研究,拥有无限的资源,或是为了投资或声望,但未必认同公司的整体愿景。我只是在想,OpenAI内部是否存在这样的情况,如果有,又是如何处理的。

  31. 「合适的人才能创造奇迹」

    🙂

    1. 我完全没有那种感觉。文中有一整段描述他们的基础设施与Meta相似,并且他们从Meta聘请了优秀的工程师。

    2. 是这样吗?

      不过有趣的是,不仅是Meta从OpenAI挖人,反之亦然。

      1. 非常贴切,OpenAI的起步阶段就是以挖人为主,我们从埃隆/山姆分别泄露的高管邮件中就能看出这一点。

        任何公司以“挖角”为借口的胡言乱语都是无稽之谈,我认为。

  32. 能写下这些真是幸运……估计只是靠FU的钱!

  33. 20年后,唯一记得你工作有多辛苦的人是你的家人,尤其是你的孩子。

    这听起来是个糟糕的地方。

  34. > 巨型 Python 代码块

    这听起来一点也不有趣,哈哈

  35. 也许我有点多疑,但这听起来太好了,不像是真的。几乎像是为了在 Meta 挖走他们最好的员工后帮助招聘而故意安排的。

    1. 与OpenAI对自己产品的大肆宣扬形成鲜明对比的是,它将AI视为“普通技术”,并务实地试图利用它来构建可行产品。

    2. 他们在结尾处只做了简短提及,这让我觉得他们不想通过批评公司来烧毁桥梁。

      1. 他们几乎肯定仍然拥有该公司的股票/期权。

    3. > 很难想象能打造出像 AGI 这样具有影响力的东西,而大语言模型(LLMs) 毫无疑问是本十年最伟大的技术创新。

      我实在无法想象一个至少有点自知之明的人会如此夸大自己的工作。别开玩笑了,伙计。而且,你还没建成AGI呢。

      真不敢相信这里对这篇帖子的批评这么少。这简直是自吹自擂。

  36. > 另一方面,你正在尝试开发一款产品,数以亿计的用户依赖它来获取从医疗建议到心理治疗等各种服务。…

    然后下一段

    > 尽管OpenAI在媒体上经常受到批评,但我遇到的每个人都在努力做正确的事情。

    如果你试图用聊天机器人取代治疗师,那就不行了,抱歉

  37. 他加入了一家处于转折点的独角兽公司,然后在达到行权门槛后仅数日便离开。所有这些关于“学习”和“经验”的谈论都充满了愤世嫉俗。

    1. 他共同创立并出售了Segment。你认为他只是去OpenAI领薪水?他详细阐述了为何加入OpenAI以及为何离开。如果你认为每个人做事都出于冷漠的原因,这可能更多地反映了你个人的动机,而非他人。

      1. 仅仅因为有人声称他们是出于善意说话,并不意味着我们必须相信他们。科技界涉及大笔资金的人,大多出于冷漠的原因行事。关于改变世界或“做一些困难的事情”的谈论,通常只是营销手段。

        1. 卡尔文工作极其努力且几乎没有 ego。他加入 OpenAI 让我感到意外,毕竟他从 Segment 收购中获得了巨额财富,但如果有人会这么做,那他就是最合适的人选。他总是致力于寻找最困难的问题并投入其中。

          他在 Segment 的后期阶段也是如此。

          1. 在这种情况下,有人将工作项目置于新生儿之上(甚至提前结束带薪休假),这100%是出于自负。

      1. 抱歉,我已删除人身攻击内容。

          1. 我明白了,今后我将避免在特色文章中质疑他人动机。我无法再编辑自己的帖子,但您可以删除或标记它,以免他人看到。

    2. 我在这篇帖子中没有感受到太多愤世嫉俗的情绪。你觉得哪部分显得愤世嫉俗?

      1. 鉴于他在达到25%的股权归属门槛后几乎立即离开OpenAI,似乎他与OpenAI的雇佣关系以及这篇博客文章(让OpenAI和他自己看起来很好,同时让读者感到愉快)都是出于冷酷的动机。也就是说,主要是出于他自己的利益。更糟糕的是他离开的理由:

        > 从自己创立的公司创始人转变为一家3000人规模的组织员工,确实不易。目前我渴望一个全新的开始。

        对于一个资质表明他能够运用批判性思维来实现目标的人来说,这完全不合逻辑。处于那个层次的人通常不会冲动行事,也不会突然意识到自己想做点不同的事情。更可能的情况是,他有意计划在OpenAI休一年假,这样他可以在重新成为创始人之前稍微喘口气,同时也能稍微规避一些风险。

        这本质上是猜测吗?是的。假设他是在冷酷地行事是否过于刻薄?是的。对他的真实动机进行猜测是必要的,因为否则我们永远无法得到确认,除非他公开承认(这仍然充满风险)。我们必须观察行为和行动,并从那里评估可能性。

        1. 在 cliff 期结束后离开工作并没有什么刻薄之处。如果公司希望在发放股权前获得超过一年的承诺,可以设置更长的 cliff 期。我们都是成年人。

          1. > 在 cliff 期结束后离开工作并没有什么愤世嫉俗的

            我的批评是,这个细节被刻意模糊,取而代之的是其他离开的解释(我认为这是愤世嫉俗的)。

            1. 我认为这个细节没什么有趣的;你一直在试图从中找点什么,但其实没什么好说的。

              如果帖子对OpenAI持负面态度(我仍然会抱怨试图在没有戏剧性地方制造戏剧性),这里可能会有一些边缘性的戏剧性可挖,但帖子对OpenAI的评价其实相当积极。

              1. 现在目标已经从“这不带讽刺意味”转变为“即使带讽刺意味也没关系”,而且Dang已经警告过我,所以我对继续这个话题有些犹豫。我只想说,一旦你意识到这篇文章中很多内容都是出于 cynical 动机,你就不会给文中信息赋予超过其实际意义的含义。

                1. 是的,我刚读了 Dan 对你说的话,有道理,所以我们就在这里结束吧。

        2. 他很可能从分部收购中获得了数亿美元。你认为他会在乎OpenAI的股权归属截止日期吗?

          更有可能的是,他去那里是为了观察OpenAI的运营方式,以便自己也能学习并建立类似的项目。

  38. 我50岁了,曾在几家酷炫的公司和许多无聊的公司工作过。借用托尔斯泰的话——幸福的家庭都是相似的,而不幸的家庭各有各的不幸。

    OpenAI目前吸引的是最聪明、最年轻且充满热情的人才(以及大量资金)。聪明、年轻(充满活力)且充满热情的人在任何地方都能表现出色——尤其是如果给予他们足够的自主权。

    年轻人谈论自己工作有多辛苦,并不是优秀企业文化的标志,只是他们正处于职业生涯的超级热情阶段。

    从长远来看,谁知道呢?我倾向于将这些公司视为一群志同道合的人,而人群会变化,动态也会在一夜之间改变——所以如果他们能维持这种文化,当然可以,但谁知道呢……

    1. 我在这个帖子的其他地方也说过,所以抱歉重复,但:我认识在这家企业工作的中年人,他们经历过这些条件,而这些经历让他们充满活力。他们正在开发数以千万计的人几乎立即就能使用的大型项目。

      我们讨论的这种节奏是不可持续的——它从未在任何地方被持续过——但如果像这样的疯狂冲刺(1)能产生内在的回报,(2)又能为 otherwise-sane 的工作条件增添亮点,那么对参与其中的人来说,这完全可以接受。

      完全可以理解你说你绝不会接受一份可能有这种期望的工作。

    2. Calvin 是 Segment 的创始人/CTO,他并不年迈,但也绝非初出茅庐的新人。

      1. 一方面,是的。但另一方面,他仍然处于三十多岁的年龄段。在大多数领域,这会被视为年轻/职业早期阶段。这某种程度上印证了这样一个观点:聪明年轻的人在科技界能取得很多成就。

        1. 卡尔文从Segment的退出中获得了巨额财富,如果他对工作不感兴趣,他不会继续工作。其他创始人则选择去做自己的事情或从事非营利组织的工作。

          我在那里工作了几年,卡尔文无疑更像是一个脚踏实地的工程师。他会介绍自己是一名工程师,然后就开始聊代码。他大部分时间都与SRE/核心团队在一起,试图解决公司最棘手的技术问题。

        2. > 在大多数领域,这会被认为是年轻/职业早期阶段

          在这个领域,这会被认为是年轻/职业早期阶段吗?

  39. 有趣的是,ChatGPT的写作风格让人们开始大量加粗文本。

    1. 我记得大约20年前,这种做法在书面沟通(邮件、设计文档)中很常见,这样人们至少能阅读重要内容,或日后快速找到关键点。

    2. 这可能是最愚蠢、最乏味、最令人讨厌的文化转移形式。我们曾梦想创造出以我们为模型的机器,如今却在以机器为模型塑造自己。真令人作呕。

    3. 人们在AI出现之前就已通过加粗重要内容来让文本更易于快速浏览。

  40. 这是一封政治正确的告别信。显然,我们这些需要工作的普通人不得不 resort 到这种方式,以免下一任人力资源经理认为我们对股票估值构成风险。要深入理解,请阅读 Karen Hao 的《人工智能帝国》。她揭露了 Sam Altman 的真实面目,他不过是另一个普通人。就像 Steve Jobs 一样,他是一个擅长销售的推销员,利用人类天真的利他主义情感,同时保持对规模的单一关注。与洛克菲勒通过规模追求垄断的典型模式并无二致,Sam与谷歌无异,后者甚至忘记了自己曾高举的口号“不作恶”。故事中的其他角色似乎也感染了相同的“膜病毒”,纷纷离开OpenAI去建立自己的帝国——马斯克在与Altman就CEO人选发生冲突后离开(XAI的诞生)。阿莫迪、他的妹妹和其他人离开后创立了Anthropic。苏茨克维尔离开后创立了“安全什么什么”(这与OpenAI成立时作为非营利组织时使用的同样的误导性策略如出一辙),这使得非营利组织的理念蒙上了邪恶的阴影,因为OpenAI已经转向盈利。

    归根结底,扩展需要资金,而在私营部门获得资金的唯一途径就是用财富倍增的诱惑来吸引有钱人。

    如果在金融工程师破产美国之前(安然事件、所罗门兄弟事件、2008年次贷危机等都使美国债务增加了数千亿美元,因为政府喝下了“大到不能倒”的迷魂汤,通过牺牲普通民众来拯救华尔街),情况可能会不同。现在,我们预算的四分之一只是这笔债务的利息支付。政府没有资金用于像人工智能这样的“登月计划”。这种环境在1960年会扼杀肯尼迪在与玛丽莲共度良宵后脑海中萌生的登月计划。

    如今,我们的政府需要资金,就像资本主义体系中其他被吝啬鬼附身的债务塔中的参与者一样。

    讽刺的是,中国似乎现在有更好的机会。它发布深度学习算法及完整参数集的举动,使其披上了一层略微可信的利他主义外衣,比西方国家显得更具说服力。中国可能仅凭热力学优势就能胜出。深度学习的训练与研究消耗了数千兆瓦时电力和数十万颗芯片。不仅美国模型基于老旧架构(能效比低10至100倍),而且美国多方竞争的格局进一步倍增了能源需求。

    政府监管会是好事吗?想象一下,如果通用汽车、西屋电气、贝尔实验室和福特在1940年各自启动曼哈顿计划研发核武器,核武器的扩散是否会导致人类灭绝?

    人工智能对全球变暖的贡献是否会像全球热核战争一样具有破坏性?

    这些问题在郝的 historic summary 后浮现。

  41. > 我最欣赏的是,该公司真正践行了“言行一致”的原则,将人工智能的益处广泛分享。尖端模型并非仅限于与企业级客户签订年度协议的用户。全球任何人都可以登录ChatGPT并获得答案,即使未登录亦可。

    我认为人工智能的益处微乎其微,甚至可以忽略不计。它实际上制造了一个囚徒困境:有些人利用它提升效率,仅仅因为它能让他们更快,而其他人则效仿以保持竞争力。但我认为,没有人工智能,每个人都会好得多。

    将人工智能对所有人免费开放,就像将一种成瘾性药物对所有人免费开放,以便日后以更大规模销售。

    可以认为某些技术是有益的。在森林中使用塑料蚊帐能立即提升舒适度。但人工智能并未真正带来生活质量的实质性提升,只是在已高度依赖技术的环境中增添了些许便利。其对生活质量的提升已进入边际效益递减阶段,我认为每个人内心深处都清楚这一点,却被其近乎魔幻的特性所吸引,因为我们天生倾向于追求优势与新信息。

    1. “我认为人工智能几乎没有好处,如果有的话。”

      好吧,如果你要说这种话,我坚持让你澄清你所指的“人工智能”的具体子集。

      显然,你对过去几十年用于垃圾邮件检测、搜索相关性等领域的机器学习算法是认可的。

      我猜你的问题是针对最近几年的“生成性人工智能”——这是一个宽泛的术语,指的是输出文本和图像而不是纯粹用于分类的模型。

      手机上的预测文本键盘(微型大语言模型(LLMs))可以吗?谷歌翻译这样的翻译引擎呢?

      帮助分析野生动物相机陷阱的视觉大语言模型呢?帮助视障人士探索世界呢?

      我怀疑你的问题不在于“AI”本身,而在于特定AI系统被构建和应用的方式。如果我们能超越将“AI”一概而论为问题的框架,我们可以进行更具建设性的讨论。

      1. 1. 这里是子集:任何基于学习的算法,在大型数据集上训练,并修改或生成内容。

        2. 我认为翻译引擎有其优缺点,但很多缺点在于它们导致翻译人员失业,并削弱了语言学习的神奇品质。

        3. 预测文本:我认为不应向用户展示可能的下一个单词,而是让他们自行思考,因为这意味着他们在写作时会更加深思熟虑,而非机械重复。此外,由于写作的门槛更高,他们可能会写得更少,而他们所写的内容也会更有意义。

        4. 我反对所有大语言模型(LLMs),包括野生动物相机陷阱分析。当我们已经相当了解问题时,过多地躲在研究背后是不合理的。无论如何,这只是保护研究的一个边缘领域。

        5. 视觉障碍:人们总是可以诉诸帮助残疾人和有障碍的人,但我认为这种权衡不值得技术奴役。

        6. 我的问题是根本上针对AI,而不是它如何被应用,正是因为AI无法以道德的方式被应用,因为人类群体中不可避免地会有足够多的不良行为者,使净效果始终为负。这是人性。

        1. 我希望你的原评论没有被点赞,因为这是个重要的讨论点。

          “正是因为人工智能无法以道德方式应用,因为人类群体中必然会出现足够多的不良行为者”

          我认为这是基于负面头条新闻而非实际数据的观点(坦白说,创始人/CEO们在胡说八道)。根据我实际经验,生成式人工智能的优势远大于劣势,差距非常巨大。我这么说是因为我接受过动态系统(与机器学习相反)的学术训练。我的团队刚刚惨败。

          一个典型的例子:我与完全采用基于大语言模型(LLM)的翻译服务的语言本地化团队合作(我们的 DeepL.com 账单非常高),但我们只是雇佣了更多的翻译人员,并更快地处理了更多的翻译。这只是……与头条新闻所说的不同。世界末日放射科医生的预测 [1],也是如此。

          [1]: https://www.nytimes.com/2025/05/14/technology/ai-jobs-radiol…

          1. > 我认为这(尤其是“足够多的不良行为者”)是基于负面头条新闻而非实际数据的推测。根据我的实际经验,生成式人工智能的优势远大于劣势,差距非常明显。

            我们对“不良行为者”的定义不同。我认为还包括那些开发系统导致大量失业的科技工作者和CEO。我已经知道有人因为人工智能而失去了工作。

            在现实世界中,很多人讨厌人工智能生成的内容。你所说的优势只对那些技术足够娴熟、能够从中获得更大物质利益的人有利,而我们不需要富人变得更富。世界不需要一群技术人员通过人工智能致富,而让翻译、平面设计师等群体失去工作。

            尽管你可能已经雇佣了更多的翻译人员,但这只是暂时的。其他地方已经解雇了他们,一旦机器足够先进,你也会这么做。短期内可能会有一小波积极影响,但长期来看主要会是负面的,而且对许多人来说已经如此。

            1. 我认为我们只能拭目以待,因为所有裁员都可以轻易归咎于领导层在疫情期间做出的糟糕的过度招聘决策,而现在他们无法承认这一点,只能给出模棱两可的回答,比如“我裁员是因为AI”,以推动不同的头条叙事(参见:创始人/CEO们胡说八道)。

              这可能也是向实际员工灌输的叙述,说“你失去工作是因为人工智能”是一种将愤怒从糟糕的商业决策中转移开来的简单方式。如果一家公司正在缩小规模,它就是在缩小规模,人工智能无关紧要。如果一家公司正在增长,人工智能只能帮助。无论公司是增长还是缩小,都不取决于人工智能,而是取决于市场和领导层的决策。

              你和我都清楚,目前这些生成式人工智能在无人监督的情况下还不够成熟(现实中也需要深度人工编辑)。但它们仍然是巨大的生产力提升,这始终对中产阶级构成巨大的经济推动力。

              我当然希望这项技术也能应用于解决中产阶级面临的实际短缺问题(住房、供应链等)。我相信这终将实现。

        2. 感谢你的回答,这很到位。我认为“生成式人工智能”是目前最贴近你所描述的那个子集的术语。

          1. 最后补充一点:我将内容修改与生成内容一并纳入,因为我还希望排除那些仅对现有内容进行改进的技术——尽管这些改进与生成式技术非常接近,但可能不被视为生成式技术。例如:音频改进技术如回声消除、机器学习降噪,我已展示过这些技术可进行插值处理。

            我认为AI分类等技术可能没问题,但当然,与所有技术一样,我们应谨慎使用,因为它也可用于人脸识别,而人脸识别又可能被用于强化警察国家。

    2. > 我认为人工智能的益处微乎其微,甚至可能毫无益处。它实际上制造了一个囚徒困境:部分人利用它提升效率,仅仅因为它能让他们更快,而其他人则效仿以保持竞争力。但我认为,没有人工智能,每个人都会好得多。

      就我个人而言,人工智能使我的生活发生了重大而意义深远的变化。除了明显的工作上的好处(我的代码发布速度比人工智能出现之前快了 10 倍左右)之外,大语言模型(LLMs) 还充当了我的私人营养师、教练、治疗师、研究助理、行政助理(分类电子邮件、做 SEO 相关的工作、研究购买等),而且比我以前使用谷歌的方法更有效、更快捷地搜索和综合信息。

      我获得的好处远不止是便利,我唯一能想到的因为这些好处而变得更糟糕的人,是我不再雇佣初级开发人员了(最多时,我曾与 3 名初级开发人员合作完成一项承包工作)。但与此同时,他们也都以类似的方式使用大语言模型(LLMs)来获得类似的好处(并从事自己的项目),因此我认为他们总体上还是受益匪浅的。

      1. 少数程序员的境况改善并不能让整个社会变得更好。事实上,我认为代码交付速度提升10倍,最终只会加速消费主义的扩张,因为大多数代码最终都被用于此类目的。

        1. 我职业生涯的大部分时间都致力于开源软件,帮助其他工程师以10倍的速度交付代码。我是否应该为我的工作对消费主义加速的影响感到内疚?

          1. 我不知道你是否应该感到内疚,但即使是我,也知道自己在消费主义中扮演的角色,而我希望自己没有这个角色。

            这并不意味着必须感到内疚,因为对某事感到好或坏的反应,是源于某种宗教式的“善恶”思维模式,这种思维模式可能源于基督教或其他类似信仰。但*无论如何*,我们至少应明白:由于我们的世界已达到足够复杂的临界点,即使我们认为无害或有益的行为,也可能产生负面影响。

            我从未主张我们应该为此感到内疚,但我们应该理解这一点并努力减轻其影响。而在无法减轻影响的情况下,我们还应倡导建立更优的社会结构,这种结构将在数年或数十年后最终减少负面影响。

            1. 电视剧《好地方》实际上对这一主题进行了深入探讨。该剧的核心主题之一是,在资本主义制度下不存在真正的道德消费,因为最终你所消费的物品都可能与世界上某个地方的严重不道德行为有关。

              1. 这一主题主要通过“在现代世界中,由于无法预知的外部因素,无法过上真正道德的生活”这一观点来展开。

                我认为,这一观点的重点并非真正针对资本主义,而是更广泛地探讨了系统本身的复杂性。这只是我的个人看法。

    3. 我真的不明白这种思维方式。所有技术都有其优缺点,我们目前正处于技术炒作和成长阵痛的阶段。

      你同样可以论证互联网、手机、电视、汽车等都面临你所提到的囚徒困境。你同样可以利用人工智能来缓解心理负担,而非将其视为一场效率竞赛。

      1. 确实,但理解“数量”上的优缺点是否随时间减少是有意义的,我认为确实如此。

        我们确实应该将这种逻辑应用于其他发明:有些发明更值得使用,而在当今社会,我们只是因为囚徒困境的机制而使用所有发明。阿米什人则会审慎考虑是否使用某些技术,这显然是更优的选择。

    4. 躲在蚊帐下避蚊是负面行为。去森林的意义本就是被蚊虫叮咬,而你却破坏了这种体验。

      如果你带了蚊帐,就无法从森林中获得益处,你应该待在外面,而不是破坏森林,让所有人都无法享受。

      1. 我认为这种观点过于短视和粗糙。因为如果我带了蚊帐,这不会改变其他人对森林的体验。如果我将人工智能引入社会,这确实会改变社会,即使那些不想使用这项技术的人也会受到影响。你完全不理解微妙之处或逻辑。

        如果有人说以200英里/小时的速度驾驶是不安全的,那么你的论点就像说“以任何速度驾驶都是不安全的”。事实上,你需要考虑技术力量和运动的规模和速度,而你似乎无法做到这一点。

      1. 没有人决定,但这并不意味着我们不应该讨论并找出是否有最佳点。

        编辑:如果你是巴西一家轮胎工厂旁边的居民,每天都要忍受极度恶心的橡胶气味,你可能会讨厌汽车。尤其是如果你在工厂建成前就买了房子,而且不常开车。

        但你可能住在北美,根本不在乎这些。

        1. 我认为这基本上就是许多阿米什社区的运作方式。至于我,我更喜欢自己决定如何在生活中使用技术。

          1. 当然这有道理。但例如,对于某些技术,我宁愿不使用它们,但有时不得不使用,因为其中一些已经成为必需品。例如:电话。我宁愿完全不使用电话,因为我非常讨厌它们,但我仍然需要银行账户。但这很困难,因为我的银行要求使用双因素认证(2FA),而要摆脱它非常困难。

            因此,虽然我原则上同意自主决策是件好事,但我认为也应该有选择权,避免那些因深入人心而难以避免的技术。

  42. > 我在那里遇到的每个人都在努力做正确的事

    让人类变得多余不是正确的事。OpenAI 没有人做正确的事。

    在帖子的另一部分,他提到安全团队主要致力于确保模型不会发表种族主义言论,以及限制关于制造恐怖武器的有用提示……而AGI安全基本上不是重点。我认为这家企业不应被允许存在。他们没有权利威胁我和我孩子的存在与福祉!

  43. > 据我所见,通往AGI的道路目前是一场三方竞争:OpenAI、Anthropic和谷歌。这些组织将根据各自的基因(消费级 vs 企业级 vs 坚如磐石的基础设施+数据)采取不同的路径。

    Grok 就像这样。好的。 :))

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

你也许感兴趣的: