一口气看完OpenAI前四天内容

   日期:2024-12-26    作者:yekaicheng 移动:http://3jjewl.riyuangf.com/mobile/quote/37822.html

OpenAI发布了长达12天的“Shipmas”。

Shipmas,是「ship」和「Christmas」的组合。简单讲,在特殊时期,推出很多产品更新,既给用户带来惊喜,也像在庆祝节日一样。

刚开始发布时,我还跟朋友说,国内大模型公司在搞发布会,应该跟Open Ai取取经。

冬天那么冷,去现场听演讲,结果讲的内容也不多,大家在台下,有的玩手机,有的只是来打个卡,说实话,花那么多钱,最后只换来几篇报道和几条朋友圈,对客户和宣传效果都很有限。

OpenAI的做法有些不同。

他们只要一个小黑屋、一张桌子、两台电脑和四个人,就能搞定一切。虽然更新速度有点像挤牙膏,但是这样能让关注他们产品的客户、用户清楚地知道他们在做什么。

有人觉得这种渐进式的发布会缺乏吸引力,但实际上,它在传播信息同时,让客户、关注的人有机会更深入地了解背后的模型和技术理念。

比如说:

关于技术微调的细节。如果在大型发布会上简单提及,可能几句话就带过了,大家的印象也不会很深。

但如果单独用一天时间深入讲解,就能展示更多的例子和演示,让技术人员和用户更直观地理解这些技术细节,从而达到更实际和深刻的认识。

所以,这种办法很适合经济实用型的公司尝试一下。发布会已经进行到第四天了,我连续熬了三个大夜。如果你错过了前几天的内容,我来帮你补上。

活动第一天,OpenAI推出o1完整版及o1 pro模式。

什么是o1模型完整版呢?

这个版本在之前的o1预览版上做了全面提升。它现在不仅能处理文本,还能处理截图、照片、网页、上传的文件等等,功能更强大了。

而且,它还采用了新的推理方式。就像人的思维方式一样,o1模型完整版会一步步推理,这样在回答专业问题时就更准确了。

跟预览版比,这个版本的o1模型思考问题更简洁,速度提高了50%,而且在回答难题时,出错的可能性也降低了34%。

作为个人博主,这些数据我肯定没办法测试,但我可以跟你讲讲官方给的例子。

发布会上,o1模型的负责人画了一个草图。这个草图是关于一个系统,用来收集太阳能,供应给太空数据中心。

因为太空里不能用水冷却系统,所以得靠一个巨大的散热片来散热;研究员问o1模型,如果要给数据中心提供1吉瓦的电力,需要多大地方的散热片才能保证GPU正常工作?

o1模型准确地识别了草图,经过分析和计算,得出结论:需要242万平方米的散热片来满足散热需求。

不说别的,至少从演示上看,的确很强大。

不过,强大归强大,之前大家说的那个「有点贵」的版本,第一天就出现了,他们推出的ChatGPT Pro。

这个服务,每个月要200美金,可以随便用他们最先进的模型和工具,包括OpenAI的o1、o1-mini、GPT-4o和Advanced Voice,主要给需要解决特别复杂计算问题的人准备的。

我觉得,这种服务可能更适合那些需要搞高级数据分析、处理的科研人员、工程师还有其他的一些专业人士,能帮他们提高工作效率,也能让他们跟上人工智能的最新技术。

有专家测试说o1 pro模式在处理那些复杂的数据科学、编程和案例分析问题时,确实能给出比以前的模型更准确的答案;在数学、科学和编程这些领域的机器学习测试里,o1 pro模式比o1和o1-preview模型表现更好。

但是,他们会花200美刀用这个吗?我不知道。当时,还开玩笑在朋友圈说,有这么多预算,还不如用集合工具Monica,一个月不到20美金,能用十几个模型,不是更划算吗?

第二天open AI推出了什么呢?

一句话总结即:推出强化微调能力(Reinforcement Fine-Tuning)。什么是强化微调?简单的说:给AI模型一个“专业培训课程”。

通过强化微调,可以用很少的实际案例(比如:几十个例子)来教这个AI模型成为一个领域的专家。

直播里,四个人在场,唯一的华裔女研究员Julie Wang介绍了这个能力。她说,这个能力能让小体量的模型“从高中水平跳到专家水平”。

实操环节,他们举了两个例子。

一个是和汤森路透合作的,为法律专业人士打造的AI模型。他们觉得,在很多行业里,虽然专家有很深的专业知识和丰富的经验,但在处理大量数据和复杂任务时,可能会因为时间和精力的限制。

比如:在法律领域,律师要处理好多法律条文和案例。

他们可以用专业知识分析,但如果用经过强化微调的AI模型,可以更快地找到相关案例,进行初步的法律条文匹配,给律师提供决策参考,提高工作效率。

但这个例子是一个展示,似乎没什么说服力。另一个例子是,生物医学任务的实验。

伯克利大学的罕见遗传病研究员Justin Reese,把很多临床病例数据通过API输入到o1 mini模型里。

这些数据包括病人的基本信息、症状描述。比如:一个51岁的女性,症状有眼距过宽、睑裂狭小、软腭咽闭合不全、甲状旁腺功能减退、全身发育迟缓和感觉神经性听力障碍、等等。

然后,用强化微调技术训练o1 mini模型做医疗诊断任务。训练时,模型要根据症状描述找出可能的基因,并排序。

评分模型会对答案打分,分数从0到1。0表示模型输出中没有正确答案,1表示正确答案在输出的第一个位置,通过性能监控,可以看到微调过程中模型指标的变化。

结果表明,经过强化微调的o1 mini模型在特定任务上的表现超过了更强大的o1模型,在top@1、top@5和top@max这些指标上,o1 mini模型都明显超过了o1模型。

这个案例,在OpenAI的官网可以看到。不过,两个能力都是「期货」,明年才正式推出,主要面向企业或科研单位等潜在客户。

千万不要小看微调技术,说实话,现在大型语言模型(LLM)还做不到复杂的创造性活动,比如:批判性思维和深度头脑风暴。

这既是坏事也是好事,因为这样,我们就可以把模型用在那些琐碎、重复、无聊而且不需要创造性的任务上,这样做,它们就能慢慢提高自己的准确性。

这就是,第二天的内容,一个词总结即:微调技术。

Open AI第三天推出了sora。鸽子一年多的期货来了,不过,因为之前连续熬夜,我实在撑不住,12点半就睡了。第二天醒来想试试Sora,但登录时发现因为用户太多,暂时用不了。

没关系,我看了Sora的发布会。

OpenAI团队在会上展示了这个工具的厉害之处,还教大家怎么用;他们教我们怎么生成视频,包括设置分镜、输入视频指令、选风格、画面比例、时长等等。通过演示,让所有人对Sora有了更深的认识。

Sora的使用过程相当灵活,你可以用分镜功能看不同角度的画面,然后,输入你想要视频怎么做。OpenAI说:指令越简单,Sora自己发挥的越多;指令越详细,它就越听你的。

在直播中,Sora把两个不连着的视频片段合成了一段有故事感的视频。虽然细节有点出入,但整体效果的确令人惊讶。

Sora还能让你上传图片或视频,然后生成后续视频的文字描述。你可以随便改指令,在时间轴上调整,决定视频啥时候播。这个功能挺有创造力的。

还有一点,生成视频后,还能用remix工具改。

这个工具看起来很丝滑,它能对视频进行各种创意上的改编。怎么改呢?可以调强度,从1级到8级,想要多大变化都行。

还有预设的选项,比如:温和、适中或者强烈。用这个工具,可以保留视频里想要的部分,其他的,想怎么变就怎么变,比如:把猛犸象换成机器人,或者变人物表情等等。

我觉得,Sora不光是视频工具,它把视频生成和工作流程结合起来了,这对OpenAI挺重要;因为Sam Altman在直播里说,他们想让AI理解视频,改变我们用电脑的方式。

想要做到这点,在通往AGI的路上,得做很多优化,而把工作流和视频生成结合起来,是个不错的办法。

不过,Sora看着不错,但是价格有点高。比如:

你要是选Plus会员,每个月得花20美元,能做最多50个视频,视频质量一般,最高只能到720p,而且每个视频最长也就5秒。

如果你想要更好的,得选Pro会员,一个月得200美元,最高清晰度能到1080p,每个视频才能生成20秒,而且Sora尚未在欧盟、瑞士和英国上线。

这就是第三天关于Sora的内容,感叹又期待,你会付费吗?

今天,OpenAI直播到了第四天,由他们的首席产品官Kevin Weil来主持。重点是什么呢?即:Canvas正式上线了。

之前,Canvas的一些功能已经在ChatGPT里展示过,但那时它是单独的一个模型。现在,它和其他模型融合在一起了。

那么,Canvas这次和以前有什么不同呢?有三个:

一,现在可以直接从首页的输入框跳转到Canvas; 二,集成了一个Web Assembly的Python模拟器,可以直接运行Python代码,还能在线修bug; 三,Canvas功能整合进了GPTs。

为了让大家更清楚地看到Canvas的新功能,OpenAI的工程师Lee和Alexey还做了现场演示。Lee教我们怎么用Canvas写一个儿童圣诞故事。

在ChatGPT的输入框里,点一下新加的工具按钮,就能切换到Canvas,你可以和ChatGPT一起编辑文档,不管是改标题、加表情,还是调整文章的长度和阅读难度,都变得很简单。

这就像百度的自由画布,用户和ChatGPT可以一起创作,写作和修改的过程都很自然。

发布会上,Alexey还展示了Canvas怎么帮我们改文章。他把一篇关于“圣诞老人、暗能量和驯鹿推进力”的物理论文贴到ChatGPT里,然后用Canvas打开。

ChatGPT不仅能给出专业的修改建议,还能在文章里直接加评论,这样用户就能很方便地查看和修改。用户可以根据自己的思路来改文章,想复制最终版本也随时可以。

Alexey还演示了怎么用Canvas调试Python代码和生成图表。Canvas里内置了一个WebAssembly Python模拟器,可以快速加载几乎所有Python库,运行代码,还能即时反馈,这对提高编程效率真的很有帮助。

另外,Canvas的功能也整合进了GPTs里。比如:

Lee就创建了一个叫“圣诞老人助手”的GPT,用来帮圣诞老人回复孩子们的信件。

只要在自定义GPT的说明里加上“使用Canvas工具”的指令,再勾选Canvas功能,自定义GPT就能自动在Canvas里生成信件草稿,圣诞老人可以根据实际情况修改草稿,用自己的风格和语气回复孩子们。

我之前一直在用Canvas,还想过,国内厂商啥时候也能引进Canvas这样的功能。我觉得Canvas(画布)是让大家一起工作更聪明的一个关键步骤。

因为不管是自己用,还是大家一起用,总得有个地方能三个人一起做事情,以前可能用类似于在线文档的工具,实现共同编辑的动作,以后,画布可能是首选协同之一了。

这就是今天发布会的内容,关于Canvas。

好了,总结下四天的内容,分别是:推出o1完整版及o1 pro、推出强化微调能力、推出新产品sora、以及把Canvas进行全新升级。

接下来的8天里,还有什么新产品呢?值得期待。


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号