设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

奥特曼 YC 演讲:套壳 ChatGPT 者死,我行不代表你行

量子位 2023/10/9 13:12:26 责编:远洋

奥特曼简单一句话,让 AI 创业公司瑟瑟发抖:

“套壳”OpenAI,注定消亡!

这是在最新 YC 校友分享会上,OpenAI CEO 奥特曼发表的演讲观点。为此他还特意补充道:尤其别花太多精力在 UI 界面上。

一时间引发共鸣无数。不少业内人士表示:

现实是,我就在目睹很多这样的事情发生。

除了这句话以外,奥特曼这段演讲中可谓金句频出,个中不少“干货细节”,也被大伙儿纷纷摘录转发 ——

包括 GPT-5、6 的进展,关于 AGI 未来趋势的看法,以及亲身创业的种种。

比如,“AI 女友”只是个美丽的陷阱,千万不要轻易尝试。

特意取个 ChatGPT 这样很像机器的名字,人类就不会对它产生感情。🤣

听完演讲后的网友,甚至将之形容为“金子一般的收获”。

所以奥特曼究竟在这场演讲中分享了啥?一起来看看。

“简单学我者死”

在 YC Alumni Reunion 2023 上,奥特曼是有一些创业建议在身上的。在一些热心网友的总结中,大致可以分为三点:

  • 简单包装 OpenAI 的公司活不长久。

  • 看好 AI 医学顾问、AI 个性化一对一辅导等方向。

  • 盲目筹资是非常不明智的。

第一点对于简单包装,奥特曼举例比如有公司正在解决 GPT 模型的小缺陷,尤其只在界面上做文章的。

一来,OpenAI 已经在解决大部分工作了;二来,这些仅在成本和速度上与 OpenAI 一较高下的公司,竞争优势并不会长久且持续。企业必须在提供真正独特的价值。

有网友联想到,前段时间红杉资本提出生成式 AI 进入到第二阶段 ——

炒作和快速展示正在被真正有价值和完整的产品体验所取代。

种种观点,其实不谋而合。

不少业内人士都表示了肯定:

不要把自己放在菜板上,被 OpenAI 的下一个版本杀死。

(嗯,有官方逼死同人内味了)

但也有人提出了不同的观点:这种说法已经太多了,对我来说似乎很愚蠢。它透露了几点信息:垄断是好事;先发优势将会获胜…… 但竞争会促进进步,ChatGPT 也确实有很多缺点可以改进。

既然如此,那有哪些方向是值得一做的呢?

第二点,奥特曼看好 AI 在医学、教育上的赋能 ——

AI 医学顾问以及 AI 个性化一对一辅导。这两者社会价值都十分巨大。

比如在教育场景,OpenAI 自己也十分积极。

消息称,OpenAI 正在筹建 OpenAI 学院,预计 2023 年底启动。它有可能是人人可访问的免费在线教学系统,老师能与 GPT-5 来互动,在课程期间接收反馈和指导。

在此之前,OpenAI 也在 GPT-4 客户案例中展现了两个教育场景。GPT-4 化身 AI 学习助手,既可以作为学生的虚拟导师,又可以作为教师的课件助手。

第三点,没有计划的盲目筹资非常不明智。别以为有钱了就万事大吉。

总结的网友还顺带说了句:奥特曼能做,不代表你也能做。

GPT-5 究竟长啥样?

另一个热度极高的话题,就是 OpenAI 的下一代大模型 ——GPT-5 和 GPT-6 了。

对此,奥特曼在演讲中也剧透了下一代大模型的长相,但不多:

GPT-5 和 GPT-6 将具备多模态输出能力,相比现有的 GPT 可靠性更高、个性化定制体验更好。

具体的多模态能力,有网友预测是能更好地完成像 grounding 这种 NLP 和视觉场景对齐的任务,如图像标注、视觉问答等。

结合此前奥特曼还暗示过 GPT-5 会具备语音识别、合成和情绪检测等新功能来看,GPT-5 应该会具备“图文听说”等各种模态对齐的能力。

借着 GPT-5 和 GPT-6 的话题,奥特曼还给大模型“布了个道”:

现在,大模型领域的“摩尔定律”(Scaling Laws)已经开始发挥作用。大模型训练成本正变得更低、调用 GPT 接口的价格将变得更便宜。

Scaling Laws 是 OpenAI 在 2020 年提出的一条定律,简单来说就是随着模型大小、数据集大小和用于训练的计算浮点数的增加,模型的性能会提高。

奥特曼认为,随着未来能源和计算成本快速下降,更强大的 AI 能力将会出现,“此前不敢想象的很多东西会被做出来”。

但即便大模型前景如此光明,奥特曼表示“距离 AGI 之路都还有很远”——

无论是 GPT-5 还是 GPT-6,都还远远不及 AGI。

甚至光是“像人”这一标准,现阶段就还没 AI Chatbot 能做到:

即使背后用上了最前沿的 AI 技术,也没让我感觉到在和一个“人”聊天。

奥特曼认为,真正的 AGI 将能够掌握“自行推理”,即随着时间推移发展出新知识。像是能够根据物理学已有知识,写论文、做实验的 AI,才能够得上 AGI 的门槛。

不过无论如何,都应该谨慎对待 AI 的输出结果:

人们会原谅人犯错误,但不会原谅计算机,二者的标准是不一样的。

对于 AGI 时刻的来临,奥特曼也给出了一个想象:

到那个时候,人们可能会经历一定程度的自我认同危机,但不会太糟糕和混乱。我们经历过很多次这样的时刻,技术终将变得无处不在。

“一个本科生坚持的结果”

最后,关于 ChatGPT 本身,奥特曼还 cue 到了两个小小的“花絮”。

其一,ChatGPT 之所以叫 ChatGPT,没有像人名的昵称,就是因为奥特曼不想往“AI 女友”产品的方向上走。

其二,ChatGPT 并非 OpenAI 最初就“倾力投入”的一个项目。

由始至终,OpenAI 甚至只有一个本科生坚持做大模型方向的研究,其他人或多或少都转向过机器人、或是游戏 AI 等其他领域“发发论文”。

这个只搞大模型的本科生,就是 Alec Radford,如今在谷歌学术上的论文引用次数已经达到 9.6w+。

2016 年,Alec Radford 于富兰克林・欧林工程学院(Franklin W. Olin College of Engineering)取得学士学位,随后加入 OpenAI,一干就是 7 年。

正是他所坚持的大语言模型路线,改变了 OpenAI 公司、乃至整个 AI 领域的发展方向。

对此,奥特曼半调侃半认真地表示:

招聘时,记得关注那些“看起来不会加入公司”的人。

OpenAI 一开始并未确定大模型这一研究方向,但我们仍然招了 AI 研究员,并在取得突破后让更多人加入其中,最终成就了 ChatGPT。

结合 OpenAI 招聘人才“不限行业”的规定,打破惯例看来已经成为这家公司获得灵感和活力的新动力了。

参考链接:

[1]https://twitter.com/sama/status/1705751665293554120

[2]https://www.linkedin.com/posts/ibamasood_chatgpt-can-now-hear-see-and-speak-nervous-activity-7112087060068368384-0OXb/

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:ChatGPTOpenAI人工智能

软媒旗下网站: IT之家 辣品 - 超值导购,优惠券 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 魔方 酷点桌面 Win7优化大师 Win10优化大师 软媒手机APP应用