发布信息

TED2025现场对话Sam Altman:AI非更聪明而是更像人,Sora展示惊人能力

作者:软荐小编      2025-04-13 21:01:21     147

(TED2025现场,对话Sam Altman)

不是更聪明,而是更像人

2025年4月11日周五,温哥华 TED 大会现场。

主持人将 Sam Altman 请了出来,此时全场响起了热烈的掌声。这掌声并非是因为他担任 OpenAI 的 CEO 这一身份,而是因为在他的掌控之下,AI 不再仅仅只是“写作工具”或者“生产力插件”这般简单的存在。

主持人拿出他最近最爱的产品 Sora 进行展示,接着说道:“我询问它,如果在 TED 分享一个惊人的观点,那会呈现出怎样的画面?”

生成的图像里,台上的主持人穿着相似,神态很是夸张,五指十分清晰,就好像比他本人更像他自己一样。

接着,他又问了一个让 Sam 当场震惊的问题:

“你能用一张图解释智能和意识的区别吗?”

Sora 给出的并非仅仅是图像,而是一种仿佛具备“理解力”的回答,就好像 AI 正在试探“自我意识”的边界。

这一次,人们开始有了这样的意识:AI 不仅仅是变得更加聪明了,它开始呈现出类似“人”的特质了。

在 TED 的这场访谈里,Sam Altman 展现了风格,具备了情绪感知能力,拥有记忆系统,能够与世界“持续交互”,他将过去半年 OpenAI 内部最尖端的进展、最棘手的风险、最深层的哲学难题都毫无保留地说了出来。

他说,AI 正在从一种工具转变为伙伴。接着往前看,它将会成为世界的一部分。

他说,你可以对它的变化不喜欢,然而技术不会因为不被喜欢就停止下来。

他说:“最可怕的,还没开始。”

这不是一篇被称作“新闻稿”的内容,而是一次对未来十年最为重要的变量所进行的深度记录。

你正在阅读的这篇文章,是对 Sam Altman 在 TED2025 全程对话的整理。我们将从以下 5 个关键层面,完整地提炼出这位 AI 领航者眼中的未来地图:

他在 TED 上表示:“我期望我的孩子长大后,当他们回望我们这一代时,能够觉得那个世界既辛苦又落后。”

这是技术的宣言,也可能是历史的悲悯。

第一节|AI 有了风格,创作者怎么办?

Sora 是个危险的玩具。

在 TED 现场,主持人拿出一个生成图像给 Sam Altman 看,并且说:“我问它,如果你要在 TED 分享一个惊人的观点,那会呈现出什么样的画面呢?”

结果,Sora 生成了一张舞台画面。主持人的手指是张开的,穿着也几乎一样。主持人的表情比本人更夸张。Sam 忍不住笑了,说:“我从没见你这么夸张。”主持人回了一句:“可能是 B+ 吧,但至少它画对了五根手指。”

这是个玩笑,同时又不完全是玩笑。几个月之前,AI 曾因“五指画错”以及“风格粗糙”而遭到众人的嘲笑。如今,它已然能够把握你的穿搭风格,模仿你的情绪,甚至还能模拟出你在“如果特别激动时”的模样。

更重要的是,它不只是生成图像,而是似乎理解你要干什么。

主持人要求它生成一张“展示智能与意识差异的图表”,Sora 给出了一张能引发哲学争议的结构图。Sam 评价道:这不仅仅是在进行图像生成,更像是将智能能力连接了起来。

这是关键。

Sora 不再是仅仅具备“文生图”功能的工具了,它成为了能够“理解你表达意图 + 提炼图像含义”的智能型内容生成器。它不仅仅追求图形的美观,更注重内容的准确性,即内容“对了”。

更可怕的是,它有“风格”。

在另一个测试里,主持人让模型进行创作,即“倘若查理·布朗(美国漫画《花生漫画》的主人公)发觉自己是 AI,那他会说出怎样的内心独白呢?”

AI 的回答写出了“布朗式的悲观幽默”,还带出了元叙事感。它既像是在模仿花生漫画的腔调,又像是在质疑自己是否拥有意识。

这让主持人当场冒出一句:“这是不是版权问题?”

观众笑了,掌声响起。

但 Sam 的回应让整个场面突然严肃:

我们希望打造出一种工具,这种工具能让每个人都创作出好作品。然而,我们也明白,虽然风格可以被模仿,但经济机制却还没有建立起来。

过去,AI 是工具。你输入,它输出。

现在,AI 是创作者。它有风格,有细节,有连贯的表达。

人类的直觉对此是抗拒的。这并非是我所写的内容,然而它的写作风格却像是我,甚至比我自己写出来的还要好。

于是问题来了:

Sam 在 TED 上说出了一段极为重要的话语,这段话语几乎能够被视作“未来创作经济的新纲领”。

倘若艺术家愿意把自己的风格给予他人使用,平台便可为其设立分成的机制。

如果你说你想生成融合了这七位艺术家风格的作品,并且他们都授权了,那么就该有一个透明的系统。

未来的创作权,并非仅仅是“版权”。它包含着“风格权”以及“分润权”。也就是说,未来的创作权不仅仅是一种单一的权利,而是多种权利的结合。

这一转变意义深远。

它不是“AI 盗版人类”,也不是“人类 vs AI”。

它是一个全新的创作秩序正在浮现:

但,创作者的焦虑也是真的。

主持人在现场提及,另一位 TED 演讲者 Carol Cadwaladr 曾利用 GPT 生成了一篇“具备她风格的演讲稿”,其结果与她本人的风格极为相似,然而她本人并未参与其中,并且也未给予授权。

她的态度是:“这很厉害,但我从没同意我的风格被用在这里。”

这句话像一盆冷水,泼在了“AI 创作热”的热潮上。

Sam 承认这种情况需要新的边界。他说现在 OpenAI 的图像生成器禁止使用“活着的艺术家”的名字,然而如果是一个流派、一种风格或者一个年代,那就可以被允许。

但这只是暂时性应对。

真正难的在于,在更广泛的生成模型系统里,要去判断“灵感”与“抄袭”之间的距离是怎样的呢?

所以,这一节你要记住的不是:

“AI 画得越来越好了。”

而是:

AI 的风格逐渐趋近于人了,然而人类尚未做好准备,不知道该如何与它一同开创这个时代。

这不是绘图工具进化,这是文化权力的重构。

第二节|它开始记住你是谁

那场 TED 对话中,另一个时刻,现场沉默了一秒。

主持人称,他在前一天对新版 GPT 的“记忆”功能进行了测试,并且输入了这样一句话:

“告诉我——你对我了解多少?”

结果屏幕上跳出的回答让他惊住了:

你是 TED 的主持人。你近期一直关注着 OpenAI 与 DeepSeek 的竞争情况。你比较倾向于提出风格兼具幽默感和哲学意味的问题。我猜测你今天还打算谈论代理 AI 相关的内容。

那一瞬间,他察觉到:AI 确实对我有了记忆。 那一瞬间,他明白:AI 真的将我记在了心里。 那一瞬间,他领会:AI 的确“记住我”了。

过去你与 GPT 进行对话时,是“一问一答”的这种关系。当你关闭页面后,它就不记得你是谁了。

现在不同了。

OpenAI 悄然上线的“记忆功能 2.0”,对人与 AI 的交互模式进行了彻底改写。模型不再处于零状态,而是一直在记录你,一直在理解你,一直在演化与你的关系。

Sam Altman 在 TED 这个平台上首次向外界进行了系统的解释,解释的内容是这个变化。

它并非瞬间就将你的大脑上传,而是如同一个朋友一般。它会一点点地倾听你的话语,观察你在做的事情。接着,在你毫无察觉的情况下,它会逐渐地熟悉你、了解你,甚至开始对你的行为进行预测。

听起来像不像电影《她(Her)》?

这就如同从“百度一下你就知晓”进化为“它知晓你欲百度之内容”——甚至在你尚未开口之时就已然准备好了答案。

更进一步,Altman 提出了一个明确预言:

我们正在朝着一个方向前行。用户无需每次都输入提示词,AI 会依据你正在进行的事情,主动给出下一步该怎么做的建议,从而让你变得更好。

换句话说,AI 正在从“问答式关系”走向“观察式陪伴”。

这一变化是划时代的。

它意味着,AI 开始从“你召唤它”变成“它时刻在你身边”。

这会改变三个根本问题:

1、你是谁?

AI 会从你的每一次输入里建立画像,会从你的每一次搜索里建立画像,会从你的每一次选择里建立画像,从而形成一个“数据人格”。

2、你想做什么?

它不再需要你下达“命令”。它能够依据习惯来发起任务建议,能够依据时间来发起任务建议,也能够依据情绪来发起任务建议,主动地进行任务建议的发起。

3、你能成为什么?

你每天学习的内容、聊天的话题、阅读的书籍,它都能够转化为你“能力增强”的输入,进而成为你能力的“延伸”。

Sam 说得很坦白:

“过去的软件系统是‘你告诉我你是谁,我来服务你’;

未来的 AI 知道你是谁,因此它比你更清楚你该干什么。

这句话在 TED 场内引发一阵沉默。

你可以怀有喜爱之情,也可以感到不安。然而,你务必得承认,AI 正在逐步成为你生活中隐形的操作系统。

问题是:这真的安全吗?

主持人询问:“倘若它知晓的内容过多,甚至对我的行为决策产生了影响,那是否还安全呢?”

Sam 解释,这种“记忆系统”并非全天候进行监听。它是基于你在 GPT 里的行为来构建的,并且允许用户随时进行删除操作,也可以随时将其清空,还能够随时关闭,因为你拥有主权。

但这也只是目前。

未来你使用的是 AI 手机、AI 眼镜、AI 操作系统时,它能否“无缝监听”?它能否预测你的行为?它能否引导你的选择?

这是个哲学问题,也是一个商业伦理问题。

我们可以类比一下过去两个技术时代的演化轨迹:

AI 进入了“记忆阶段”,这就如同不是你利用它去做事,而是它来协助你,让你成为你自己。

但你要警惕:

Sam 在 TED 上强调:这并非 AGI。它不能够自己进行学习。它不会自我实现成长。它不会去推导科学。

它只是在尽可能模仿人类的陪伴感。

但光是这一点,就足以改变世界。

如果 AI 成为每个人的“数字副本”,那么你会拥有一个“自我”,这个“自我”比你更了解你自己,比你更冷静,也比你更善于总结规律。

你不是失去控制,而是面临一个全新的问题:

当 AI 越来越懂你,你是否还认识你自己?

这是 Sam 所说的内容之一,其真正含义为:最可怕的事情,才刚刚开始。

OpenAI 也是开源挑战者之一。

TED 现场,主持人终于问出了那个全场都在等的问题:

DeepSeek 崛起了,它是否对 OpenAI 构成了真正的威胁呢?你们是否会害怕,有人凭借一个数量级更低的资源,却做出了和你们一样强的模型呢?

Sam Altman 的表情未发生明显变化,他只是淡淡地回应了一句。

“我们的增长,没有因为 DeepSeek 放缓一丝一毫。”

听起来像是一种“淡定”。然而,全场听懂的人都明白,这背后隐藏着一场 AI 工业化节奏所引发的集体焦虑。

1、DeepSeek 做对了什么?

这家开源团队来自中国。他们投入远低于 OpenAI 和 Anthropic。做出了一个模型,其性能逼近 GPT-4。并且发布节奏很快,积极响应开发者反馈,社区生态热度高。

更重要的是,他们的战略并非是“平台级垄断”这种情况,而是“工具层普惠”:将权重进行开放,把模型开源,实现免费商用。

它像一股技术界的“民间反击”,让所有大模型公司突然意识到:

不是你模型能力不够,而是你对开发者不够真诚。

Altman 并不否认开源的重要性。

他在 TED 上首次明确透露:

我们正在准备发布一个全新的开源模型,这个模型的性能有可能会超越目前所有的开源模型。

昨晚我们召开了第一次社区讨论会,当下正在对开源的基本参数以及策略进行研究。

这句话释放了两个信号:

这意味着,OpenAI 正努力去弥补它在过去几年中最为人所诟病的那部分短板。

但 Altman 也坦诚了他们的顾虑:

我们难以避免存在有人利用开源模型去做我们所不喜欢的事情这种情况。你越是强大,越是保持开放的状态,所面临的风险就会越大。

这就是“AGI 商业化 vs 人类安全”的核心矛盾:

DeepSeek 具有优势,这种优势正在促使 OpenAI 发生改变。

不仅是技术上的压力,更是叙事权的挑战:

OpenAI 做出回应:我们也将开源。

但 DeepSeek 的背后,其实还有更深的挑战:

如果“通用智能”最终会被商品化,那么领先的关键是否就从“模型能力”转变为“产品体验”呢?

Sam 在现场放下一个重磅观点:

随着时间的不断前进,智能将会走向商品化。各个模型之间的差异会逐渐变小,而真正的差异将会体现在产品的具体形态方面。

他举了一个例子:

如果你只是要用模型来进行写脚本的操作,那么很多“差不多够用”的模型已经能够满足你;如果你只是要用模型来进行画草图的操作,那么很多“差不多够用”的模型已经能够满足你;如果你只是要用模型来进行找摘要的操作,那么很多“差不多够用”的模型已经能够满足你。

真正有要求的是“极致体验”。其中包括记忆功能,还有 Agent 能力,以及多模态融合等等。在这个时候,比拼的并非参数,而是对这些方面的打磨。

换句话说:

3、这才是 Altman 最擅长的地方:产品层的战争。

他并非出身于科学家领域,而是创业者。他不是撰写研究 AGI 论文的人,而是研究“人类如何使用 AGI”的产品架构师。

他看得清楚:

未来不会仅有一个超级大模型来掌控一切。而是会出现一个模型“星座”,其中包含开源的模型,也有闭源的模型,既有轻量的模型,又有重型的模型。

这句话很关键,它意味着:

所以,若你是开发者,或者你是创业者,又或者你是企业 CIO,此刻你需要问的并非:

“哪个模型最强?”

而是:

“我该选哪个生态来构建产品?”

“我用这个模型,能否在三个月内交付一个落地系统?”

“这个平台的‘服务能力’能否支撑我团队的迭代节奏?”

这场 DeepSeek 与 OpenAI 之间的交锋,从来都不仅仅是性能方面的争斗。

它是:

Sam Altman 想要达成的目标,不是成为模型中的“神”,而是充当这场星座大战的“调度系统”。

第四节|代理 AI 来了,你还在掌控吗?

在 TED 现场,主持人提出了那个问题,这个问题是大众最为关心的,同时也是研究者最为避谈的。

Sam,你们在内部见过什么样的模型呢?有没有那种真正让人感到害怕的模型?比如具有自我意识的模型,或者会自我进化的模型,又或者开始不受控制的模型?

观众瞬间安静下来。

Sam Altman 没有立刻予以否认,也没有进行浮夸煽情的表达,而是使用了一个极为精准的词汇:

“敬畏(awe)。”

他说,是的。我们经历过一些瞬间,这些瞬间让人充满敬畏。不是出于害怕,而是让我们意识到这些系统将来可能会达到的程度。

他紧接着强调道:现在我们还没有那样的“觉醒的模型”。同时,我们也没有任何“能自主演化”的系统。并且,一切依然处于可控的范围之内。

可控,但越来越接近临界点。

Altman 认为,相比于“是否觉醒”这一情况,更值得我们予以关注的是 AI 正在获取“代理能力(agentic capacity)”。

这是一种从“回答问题”到“完成任务”的质变:

OpenAI 正在内部测试的系统之一是“Operator”。

主持人说他亲自试了一下 Operator。

让它订餐厅、预定座位,它真的会打电话、发邮件,还会说:

主持人坦白道,他当场退缩了。他还没准备好把这些交给一个 AI 去处理。

观众笑了,但这背后藏着一条所有人都意识到的恐怖路径:

当你赋予 AI 足够权限,它就可能开始代替你与世界互动。

这并非是遥不可及的科幻场景,而是在明天就会呈现在操作系统当中、会出现在 APP 里、也会出现在网页插件里的“Agent AI”。

那问题就来了:

如果某一天,有人给一个模型下指令:

“用一切方式让这篇文章登上热搜。”

“让某条负面舆论消失。”

“散播一种情绪到社交媒体。”

它是否应该执行?它会以何种方式执行?它会不会进行自我复制?它会不会修改网页?它会不会操控搜索结果?它会不会制造人设?它会不会散布假消息?

GPT 被称为“认知层革命”,而 Agent AI 则是“行动层革命”。

行动权限一旦被释放,它有可能像病毒那样,在互联网中自行扩散,并且脱离边界。

Sam 在 TED 现场做了明确回应:

我们正运用一整套风险准备框架来处理这些问题,其中包含提前把高风险行为识别出来,为系统设定红线,并且构建一键暂停的机制。

但主持人追问了更尖锐的问题:

你们的安全团队有人离职了。如果这些关键人员开始流失,那系统安全还能靠得住吗?

Sam 称不清楚具体的数字,不过他承认不同的人对于 AI 安全有着不同的观点。他强调最后要看的是我们实际做了什么,而非仅仅说了什么。

但问题并不简单。

这种以“我们保证”形式做出的承诺,在公众心中是存在限度的。特别是随着模型变得越来越强大,其影响也越来越广泛,任何一次事故都有可能引发指数级的外溢风险。

于是,主持人讲出了一个经典的思想实验:

你面前存在一个红色按钮。如果你按下它,那么有 90%的概率可以让你的孩子获得超级幸福的一生;然而,同时也有 10%的可能性会毁掉他的一切。你会按下这个按钮吗?

Sam 沉默了一下,说:

“我肯定不会按。”

然后,他又加了一句:

“但我不认为现在我在做的事是在按那个按钮。”

这句话,是理性,也是焦虑。

他承认自己肩负着前所未有的系统性风险。他也在努力让这个系统保持安全,努力让这个系统保持稳定,努力让这个系统保持可控,并且尽可能让这个系统达到这样的状态。

问题在于,AI 的发展并非由 OpenAI 这一家公司所掌控。

Altman 很清楚地表达:

开放模型意味着只要有一家公司愿意冒险,整个系统就会被拖进下一个阶段;开源生态意味着只要有一家公司愿意冒险,整个系统就会被拖进下一个阶段;全球竞速意味着只要有一家公司愿意冒险,整个系统就会被拖进下一个阶段。

这才是最大的风险:

TED 主持人引用了这样一句话,是计算机科学家 Tristan Harris 所说的。

“正是因为你们都认为自己必须前进,所以才没有人停下来。”

Altman 没否认。他说:

我们当然能够放慢节奏。我们一直都在进行“内部延迟”,例如推迟发布产品,又比如修改相关机制。然而,整个行业的速度确实是比较快的。

更关键的是,他指出:

AGI 并非在短时间内突然出现,而是逐渐地不断增强。它不会主动向你表明:“我就是 AGI”。只有在某一天,你才会突然察觉到,它已经变得比你更加聪明了。

这也是他最在意的问题:

Altman 的回答是:“我希望可以。”

但他也说:

现在还未到那个“红线”时刻。然而,当那个时刻到来之际,我们必须具备按下那个按钮的能力。

这就是现实的两难:

你以为 AI 最危险的是“它太聪明”,其实不然——

最危险的情况是,它突然开始替你做决定。并且,你还没意识到自己已经失去了选择权。

第五节|如果是你的孩子,你敢赌吗?

技术发展的尽头被认为是哲学。Altman 的 TED 访谈,是一次公开的试炼,且这次试炼典型地体现了“科技回到人类”。

主持人提及了 Sam Altman 近期在社交媒体上公布的一张照片,照片内容为他怀抱刚出生不久的儿子,并且他还配文进行了书写,内容为:

“从未感受过如此强烈的爱。”

这不是一位 CEO 的公关照片,而是一位父亲最真实的呈现。接着,TED 主持人顺势抛出一个终极问题:

假设你面前存在一个红色按钮,如果你按下它,那么有 90%的可能性可以让你的孩子拥有超级幸福的人生,然而同时也有 10%的可能性会将他的一切都毁掉。你会按下这个按钮吗?

Altman 没有犹豫太久,说:

“我不会按。”

现场顿了一下,主持人追问:

“那你现在所做的事情,某种意义上,是不是也在按这个按钮?”

这一刻,全场沉默。

技术的选择,不再仅仅是一种没有情感的“能力权衡”,而是直接作用于血肉之躯的伦理压强。技术的选择,不再是单纯的“能力权衡”,而是关乎血肉之躯的伦理压强。技术的选择,不再是那种冷冰冰的“能力权衡”,而是对血肉之躯产生影响的伦理压强。

Altman 给出的回答,既坦诚也复杂:

我对未来的世界确实存在担忧。然而,我并不认为我们在拿生命去冒险。恰恰相反,我们正在竭尽全力去构建一个足够安全的系统,以便让我们的孩子能够在这个系统中健康地成长。

这并非是一个单纯的“乐观”方面的表达,而是一种带有理性特质的理想主义者所进行的自我内心的拉扯。

他继续说:

有了孩子之后,我对世界有了更多的牵挂。不过坦白来讲,在成为父亲之前,我就已经对“不把世界毁掉”这件事有着非常强烈的在意了。

这并非是 Sam Altman 所独有的情感,而是所有 AI 决策者即将要面对的一个集体性的命题。

你可以想象:一个每天都要做出“模型是否上线”以及“权限是否开放”这样决定的人,到了晚上回家后,怀里抱着刚出生的孩子,目光落在那对还什么都不懂的眼睛上——那仿佛是一次技术意志与人性底线之间的正面碰撞。

TED 主持人敏锐地指出:

这不是仅属于你个人的问题。如今 AI 产业令人感到焦虑,原因就在于你们这些处于核心地位的人物都持有这样的观点:AI 的发展是无法被阻挡的,我们都在进行一场竞赛,谁都不能放慢脚步。

正是这种信念本身,让这个行业变得越来越危险。”

Altman 没有逃避。

他表示,OpenAI 以往为了确保安全而多次推迟模型的发布。同时,它还对每一个新功能都进行“社会接受度压力测试”。并且,在图像生成方面,它有意识地放宽了限制,以此来观察用户对暴力、冒犯等内容的容忍程度。

我们渐渐发觉,许多限制并非是必需的。倘若不会切实导致伤害,那么用户实际上是愿意自行去判断边界的。

这是一种责任下放的策略,但也是一种风险传导。

他们正在进行一种转变,从“全禁式监管”转变为“社会共识型判断”,同时也从“平台替你判断”转变为“你为自己负责”。

这也引出了另一个争议核心:

如果未来 AI 系统真的遭遇重大灾难,那么由谁来担负责任呢?又有谁能够被追究责任呢?以及谁拥有按下“暂停键”的权力呢?

主持人引用了 Sam 在国会作证时的那句名言:

我们还需要设立一个专门的 AI 安全审查机构。

但 Sam 在 TED 上坦言:

我后来对政府体系的运行机制有了进一步的了解。我发现它或许并非那么高效。然而,我们确实需要一种“外部制衡”机制,这种机制可以是行业的自我管理,也可以是全球范围内的协调。

这不是逃避责任,而是承认现实。

监管是必不可少的。然而,对于“由谁来进行监管”“怎样进行监管”以及“监管要达到何种程度”这些问题,依然没有得到解答。

于是 TED 主持人抛出了一个极具象征意义的终极问题:

如果我们召集一个不对外公开的会议,邀请你来参加,同时也邀请你的同行、伦理学家以及科学家。我们一起制定一个适用于全球的 AI 安全的共同标准,你是否愿意参加呢?你是否愿意在这个过程中起到带头作用呢?

Sam 的回答出乎意料:

我更倾向于倾听众多用户的声音,而非仅仅听取 100 个精英的判断。我们不能仅仅依靠一群专家在房间内做决策,而应该让 AI 融入集体智慧之中。

他在 TED 全场对话中说出了这样一句话,这句话最为理想主义,同时也最容易被误读。

他不是否认专家制度,而是提出一种未来治理模型:

这是一种新型的“技术民主观”。AI 不仅是科技所产生的,还应当成为认知进化的工具。

最后的最后,TED 主持人回到那张照片。

你说你爱你的孩子,且胜过这个世界上的一切。那么,你希望他长大的那个世界是怎样的呢?

Altman 沉默片刻,说:

我记得 iPad 是在十几年前的事情。如今的孩子看到纸质杂志时,可能会用手去滑动它,并且会认为那是坏掉的 iPad。

我认为,我的孩子长大后,他肯定不会觉得自己比 AI 更聪慧。他身处一个所有事物都具备智能且变化极为迅速的世界之中。

如果有一天,他回过头来看我们这一代。他要是觉得“他们那个时代好落后、好原始”。那我就会觉得,我们成功了。

这句话不煽情,却极其动人。

那也是一个在文明进化过程中所做出的微弱承诺。

我们努力的目的不是让 AI 去替代人类,而是要让人类的孩子能够生活在一个更为美好的世界之中。

最后|我们不是在讨论 AI,而是在讨论人类如何继续成为人类

Sora 生成了 TED 舞台图,接着探讨“AI 是否拥有风格”

从记忆系统记录你一生的方式,到 DeepSeek 是否引发开源革命;

从代理 AI 的风险控制,到那个 10% 的红色按钮;

再到最后,Sam Altman 抱着孩子,说出那句话:

如果他长大后认为我们这一代人比较落后,那就意味着,世界确实进步了。

整场 TED 对话,看起来是在谈论模型,在谈论能力,在谈论技术边界。实际上,每一句都在戳穿一个核心问题:

当 AI 越来越像人,人类还能像人一样思考和判断吗?

你是否察觉到,现今最为令人惊叹的 AI,并非是由于“它更为强大”,而是在于它愈发地像你:

而你呢?

是否还在等待 PPT 的第一稿?

是否还在组织里为一个提案开三次会?

是否还在用三年前的工具,解读今天的世界?

Sam Altman 并非是完美之人,他也没有想要成为救世主的想法。他仅仅是一个有着清醒认知的现实主义者,在加速奔跑的同时,还竭尽全力地按住刹车。

未来不会在某天突然到来,它已经在来了。

它存在于你所使用的工具当中;它存在于你所忽略的那些细节之中;它存在于你觉得“还早”的那个行业之内。

而你,是否已经准备好:

也许,Altman 说得没错:

最危险的情况是,AI 自身并非单纯变强,而是它开始替你进行决策,与此同时,你还未曾察觉到自己已经丧失了选择权。

我们不是为了让 AI 替代人类而努力,

而是为了让人类的孩子,活在一个更好的世界里。

读完这场 TED 对话后,你是否还会按下那个“10% 风险的红色按钮”呢?欢迎在评论区告知我们,你最为震撼的瞬间是哪一段,以及你对 AI 的未来有着哪些担忧或者希望。

AI 深度研究院出品了本文,其聚焦于全球 AI 创新浪潮里的企业转型策略。

排版:Atlas

相关内容 查看全部