OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

ChatGPT一炮而红,彻底把openAI这个创业公司整破圈了,短短5天,全球注册用户就突破100万,至今仍热度不减。

但为什么是OpenAI做出了ChatGPT?OpenAI的员工又都是什么背景?

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

抢人大战,openAI赢麻了

根据外媒Leadgenious Punks & Pinstripes对目前736名OpenAI员工的背景进行分析后可以发现:几乎所有的 OpenAI 核心人才都来自大型科技公司。

其中有59人之前就职于谷歌,其次是Meta (34人) ,苹果(15人) ,Dropbox (14人) ,亚马逊(11人)。

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

在OpenAI的员工中,有389人曾在硬件或软件公司工作;还有39人来自金融服务业,包括摩根大通(7名外籍员工)、罗宾汉(5人)和瑞银(3人)。 

OpenAI在技术人才的争夺上,已经赢麻了。

LeadGenius 的研究结果也为大型科技公司敲响了「人才警钟」,那些大型科技公司,尤其是谷歌对员工的关注度并不够。

从谷歌离职的人里面,很多都是在创新实验室(如Alphabet X)中进行一些次级产品的研发,也就意味着,他们基本看不到自己的工作成果对公司的核心产品或收益产生有意义的影响。

而openAI可以给他们这个机会。

此外,OpenAI招聘了39名金融员工,远超行业预期,是否意味着OpenAI的下一步棋就是「挑战金融服务业」?

360 Digital Immersion 公司总裁兼创始人Lisa Wardlaw表示,「现在下结论还为时过早,但他们的确为寻找新选择的华尔街人才提供了一个可行的选择。」

在马克·扎克伯格创办Facebook的那个年代,只需要一间大学宿舍,或是一个车库就能开一家世界级公司;而OpenAI的成功则是从大公司「挖墙脚」。

谷歌:OpenAI的后备人才库

早在去年11月ChatGPT发布的博客文章中,致谢部分可以发现5名谷歌员工的名字:Barret Zoph, Liam Fedus, Luke Metz, Jacob Menick, Rapha Gontijo Lope

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

领英显示,Barret Zoph于2022年8月离职Google Brain,加入OpenAI参与打造ChatGPT,主要研究方向为训练大型稀疏语言模型和AuoML,如神经结构搜索(NAS)。

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

Liam Fedus于2018年入职Google Brain,2022年9月左右入职OpenAI,在蒙特利尔大学攻读博士期间导师为图灵奖得主Yoshua Bengio,研究方向横跨有监督、无监督和强化学习。

怪兽AI知识库 怪兽AI知识库

企业知识库大模型 + 智能的AI问答机器人

怪兽AI知识库 51 查看详情 怪兽AI知识库

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

Luke Metz于2016年入职Google Brain任高级研究科学家,目前在领英和推特个人主页尚未显示加入OpenAI.

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

Jacob Menick于2015年9月入职DeepMind,2022年9月入职OpenAI任研究员,博士毕业于伦敦大学学院,主要研究方向为机器学习、生成式模式、大规模深度学习、变分推理、信息论和稀疏模型。

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

Rapha Gontijo Lope于2018年6月本科毕业于佐治亚理工学院,后入职Google Brain,期间参与了为期两年的谷歌AI留居计划,2022年9月入职OpenAI

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

不过最大的boss还是OpenAI的联合创始人和首席科学家Ilya Sutskever,他在2005年毕业于多伦多大学,2012年获得计算机科学博士学位。

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

毕业至今,曾先后就职于斯坦福大学,DNNResearch,Google Brain,从事机器学习与深度学习的相关研究,并于2015年放弃谷歌的高薪职位,与Greg Brockman等人联合创建了OpenAI,在OpenAI主导了GPT-1,2,3以及DALLE系列模型的研发。

谷歌还是太怕风险了

上面提到的几位员工大多曾在Google Brain任职,有部门员工在接受采访时表示,Google Brain的工作文化让人实在打不起精神,除了有令人难受的官僚主义作风,对待新产品提议的态度也过于谨慎,很多员工都有离职的想法。

另外也有员工抱怨,曾经建议过公司应该把对话功能加入到搜索引擎里,但根本就没人重视。

不过Google Brain内部仍然人才济济,仍然有超过800位以上来自世界各地的顶尖科学家。

除此之外,AppSheet 创始人 Praveen Seshadri 在离职谷歌后也发表了一篇博客,他认为谷歌陷入了一个迷宫之中,员工浪费了大量的精力在审批、启动流程、法律评估、绩效评估、执行评估、文档、会议、错误报告、分类、 OKR、 H1计划、随后的 H2计划、全员峰会和重组上,实际能做的事非常少。

OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」

尤其是面临OpenAI和微软的围剿,谷歌不仅面临技术上的压力,还面临大裁员等问题,在某种程度上反映出管理层和员工普遍缺乏自我意识。

最大的问题还是在于谷歌的核心文化:

没有使命感(no mission)没有紧迫感(no urgency)过度审查(delusions of exceptionalism)管理不善(mismanagement)

尽管谷歌的两个核心价值观是「尊重用户」和「尊重机会」,但在实践中,这些系统和流程被有意设计为「尊重风险」。

风险缓解胜过一切,如果一切进展顺利,最重要的事情是避免出现问题,并在广告收入不断增加的情况下继续前行:

更改的每一行代码都有风险,因此需要大量的中间过程来确保每一次代码更改都能完美地避免风险;发布的任何东西都是有风险的,所以要进行大量的审查和批准,哪怕只是在一个小产品上发布一个小变化;任何不明显的决定都是风险,需要由群体共同决定;任何与过去不同的做事方式都是风险,所以要坚持原来的方式;任何对你不满意的员工都是职业风险,所以经理们的目标是100% 的员工满意度,即使对待表现最差的员工也要小心翼翼;任何与管理链的分歧都是职业风险,所以一定要应承自己的上级;

如果重点转移到价值创造上,那么一切都会变得不同,比如每天问自己「我今天为谁创造了价值」,如果能创造更多的价值,产生更大的影响,员工就会更加努力工作。

早年谷歌在「抢人大战」里疯狂挖Meta等大厂的墙角来扩充自家人才资源,现如今自己反倒成了OpenAI的后备人才库。

难怪ChatGPT爆火后谷歌要拉响「红色警报」,再不重视人才的保护,自家培养的高级研究员早晚要被挖完!

参考资料:​​https://www.php.cn/link/2287c6b8641dd2d21ab050eb9ff795f3​​

以上就是OpenAI专业挖角,近100位大佬到手!谷歌、Meta等大厂沦为「后备人才库」的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/552599.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 20:46:09
下一篇 2025年11月9日 20:47:01

相关推荐

  • 从OpenAI API响应中高效提取文本内容

    本文详细指导如何从openai gpt系列模型的api json响应中准确提取所需的文本内容。我们将重点介绍如何利用json解析器处理api返回的结构化数据,避免直接字符串操作的常见错误,并通过具体代码示例演示如何访问choices数组中的生成文本,并探讨处理多条生成结果的方法,确保开发者能高效、稳…

    2025年12月23日
    000
  • ai做html怎么运行_AI生成html运行步骤【教程】

    答案是使用AI生成HTML代码后,将其保存为.html文件并用浏览器打开即可运行。具体步骤为:1. 在AI工具中输入需求生成HTML代码;2. 将代码复制到文本编辑器并另存为index.html,编码选UTF-8,类型选“所有文件”;3. 双击该文件用浏览器打开,若无法正常显示需检查文件后缀、编码及…

    2025年12月23日
    000
  • 从OpenAI API响应中高效提取生成文本

    本文旨在指导开发者如何正确解析OpenAI API返回的JSON格式响应,并从中提取所需的生成文本内容。通过详细的步骤和代码示例,我们将展示如何使用`JSON.parse()`方法处理API响应,并精确访问`choices[0].text`属性以获取核心文本输出,同时探讨处理多条生成结果的方法及相关…

    2025年12月23日
    000
  • p5.js中类方法声明的语法解析与常见错误修复指南

    本文旨在解决从java processing迁移至p5.js时常见的语法错误,特别是类内部方法声明不当引发的问题。我们将深入探讨javascript中全局函数与类方法声明的语法差异,提供清晰的示例代码,并指导如何识别和修复“unexpected token”及“declaration or stat…

    2025年12月21日
    000
  • p5.js中类方法声明的语法修正与迁移指南

    本文深入探讨了将Processing/Java代码转换为p5.js时,因JavaScript类方法声明语法差异而引发的常见错误。我们将重点解析`Unexpected token`和`Declaration or statement expected`等错误信息,明确全局函数与类成员方法在JavaSc…

    2025年12月21日
    000
  • TypeScript泛型函数中复杂对象结构类型推断的精确控制

    本文探讨了在typescript中处理复杂嵌套对象结构时,如何为泛型函数实现精确的类型推断。通过一个具体的汽车品牌和车型数据场景,我们分析了`object.values`等操作可能导致类型信息丢失的问题。核心解决方案是利用映射类型(mapped types)重构数据结构,以显式地建立泛型键与对应值之…

    2025年12月21日
    000
  • 解决OpenAI微调模型”模型不存在”错误:API端点选择指南

    当使用openai微调模型时,若遇到“the model `xxxxx` does not exist”错误,通常是由于选择了错误的api端点。本文将详细阐述如何根据微调模型的类型(gpt-3.5 turbo或旧版gpt-3模型如babbage/davinci)正确选择chat completion…

    2025年12月20日
    000
  • 解决OpenAI微调模型“模型不存在”错误的指南

    在使用openai微调模型时,若遇到“the model `xxxxx` does not exist”错误,通常是由于api端点选择不当。本教程将详细阐述如何根据微调模型的基础类型(gpt-3或gpt-3.5 turbo)选择正确的api端点(completions api或chat comple…

    2025年12月20日
    000
  • OpenAI微调模型调用错误:“模型不存在”的解决方案与API选择指南

    当您在使用%ignore_a_1%微调模型时遇到“the model `xxxxx` does not exist”错误,这通常是由于选择了错误的api端点。解决此问题的关键在于识别您的微调模型所基于的原始模型类型:若基于gpt-3.5 turbo,应使用chat completions api;若…

    2025年12月20日
    000
  • LangChain HNSWLib 向量存储机制详解:内存与本地持久化

    本文深入探讨LangChain中HNSWLib向量存储的内部机制。HNSWLib作为内存型向量存储,其数据实际存储在项目运行的宿主服务器内存中,而非LangChain官方服务器。同时,它支持将向量数据持久化到本地文件系统,确保数据的安全与可恢复性。 在构建基于大型语言模型(LLM)的应用时,向量存储…

    2025年12月20日
    000
  • LangChain HNSWLib 向量存储机制与数据安全深度解析

    hnswlib作为langchain的内存型向量存储,其数据实际存储在运行项目的服务器内存中,而非langchain官方服务器。这意味着数据安全性与您的部署环境直接相关。通过持久化操作,hnswlib数据可保存为本地文件,确保数据可控性。理解hnswlib的存储原理对于数据安全至关重要,它强调了用户…

    2025年12月20日
    000
  • LangChain中HNSWLib向量存储机制解析与数据持久化

    本文深入探讨了langchain中hnswlib向量存储的内部机制,重点阐明其“内存存储”的实际含义——数据存储于项目运行的宿主服务器内存中,而非langchain的服务器。文章将详细介绍hnswlib数据的持久化方法,并通过示例代码指导用户如何安全地管理和保存向量数据,确保数据安全与应用稳定性。 …

    2025年12月20日
    000
  • LangChain HNSWLib 向量存储机制与数据持久化指南

    本文详细解析langchain中hnswlib向量存储的工作原理,明确其作为内存存储的特性,指出数据实际存储在项目部署的服务器上,而非langchain官方服务器。同时,文章将指导如何通过save_local()方法将内存中的向量数据持久化到本地文件,确保数据安全与可靠性,并探讨在实际应用中的注意事…

    2025年12月20日
    000
  • 理解LangChain向量存储:HNSWLib的本地数据持久化机制

    本文深入探讨langchain中hnswlib向量存储的内部机制与数据安全考量。我们将澄清“in-memory”存储的含义,解释hnswlib数据如何存储于项目宿主服务器的内存中,而非langchain官方服务器。同时,文章将演示如何通过持久化操作将这些内存数据保存至本地文件系统,确保数据可控性和安…

    2025年12月20日
    000
  • Discord.js V14机器人DM消息处理指南:解决私信不响应问题

    本文旨在解决discord.js v14机器人无法检测和响应私信(dm)的常见问题。核心在于,未缓存的dm频道需要通过在客户端配置中添加partials.channel来显式处理。文章将详细阐述dm消息处理机制,提供正确的意图(intents)和部分(partials)配置示例,并包含一个完整的dm…

    2025年12月20日
    000
  • 解决Discord.js V14机器人无法检测私聊消息的问题

    在discord.js v14中,机器人无法检测私聊(dm)消息是一个常见问题,即使启用了`directmessages`意图。本文将深入探讨此问题的原因,并提供一个完整的解决方案。核心在于理解并正确配置`partials.channel`和`partials.message`,以确保机器人能够处理…

    2025年12月20日
    000
  • Discord.js V14:解决机器人无法在私信中检测消息的问题

    本文旨在解决Discord.js V14版本中,机器人无法正确检测并响应私信消息的问题。通过配置必要的 Gateway Intent Bits 和 Partials,确保机器人能够缓存并处理私信频道和消息,从而实现私信交互功能。本文提供详细的配置步骤和代码示例,帮助开发者快速解决此问题。 在使用 D…

    2025年12月20日
    000
  • Discord.js机器人私信交互:确保DM消息正常处理

    Discord.js v14机器人未能正确处理私信(DM)消息,即使已配置相关意图。核心问题在于DM频道可能未被缓存,导致机器人无法接收到这些消息。本文将详细讲解如何通过在Discord客户端配置中添加`Partials.Channel`来解决此问题,确保机器人能够可靠地监听并响应用户在私信中的交互…

    2025年12月20日
    000
  • 解决 ChatGPT 扩展选择器失效问题:一个实战教程

    本文旨在帮助开发者解决 ChatGPT 网页更新导致扩展选择器失效的问题。通过分析问题原因,提供利用开发者工具查找新选择器的方法,并展示了使用 getElementsByClassName() 替代 querySelector() 的解决方案,以确保扩展功能在 ChatGPT 最新版本中正常运行。 …

    2025年12月20日
    000
  • ChatGPT 扩展失效:定位新版选择器并修复

    本文旨在帮助开发者解决因 ChatGPT 网页更新导致扩展失效的问题。通过分析失效原因,提供利用开发者工具定位新版选择器的实用方法,并给出示例代码,帮助开发者快速修复扩展,恢复其功能。 当 ChatGPT 网页更新时,依赖于特定 CSS 选择器的扩展程序可能会失效。这通常是因为网页结构的改变导致原有…

    2025年12月20日
    000

发表回复

登录后才能评论
关注微信