弹幕炸了,OpenAI直播大秀语音指挥AI自动编程,也就比老罗TNT强亿点点
分分钟给你搞出个小游戏刚刚,OpenAI又玩出了一个新高度。只输入自然语句,AI就自动做了个小游戏!划重点:不!用!你!编!程!来,感受一下这个feel。第一步,“小人儿”搞里头,输入一句话就能让它按照方向键左右移动:Nowmakeitcontrollablewithth
分分钟给你搞出个小游戏
刚刚,OpenAI 又玩出了一个新高度。
只输入自然语句,AI 就自动做了个小游戏!
划重点:不!用!你!编!程!
来,感受一下这个 feel。
第一步,“小人儿”搞里头,输入一句话就能让它按照方向键左右移动:
Now make it controllable with the left and right arrow keys.
AI 在理解了需求之后,自动编程,然后小人儿就真的可以左右移动了。
第二步,“石头”搞里头,同样输入一句话,让它“从天而降”:
Now have it fall from the sky, and wrap around.
第三步,用自然语言简单再制定些规则,若小人儿被石头砸中则终止游戏。
Constantly check if the person and the boulder overlap at all, and if so, you lose.
最后还让 AI 生成结束提示,其中要包括一句鼓励人的话。
AI 挑中的是“Try Again!”
当然,还有规则更复杂的小游戏(例如增加计分等功能),也可以用同样的方式,分分钟生成:
这是魔法吧!现在开发小游戏都靠“打字”了?!
围观直播的观众们,也是发出了同样的感慨,瞧瞧这满屏止不住的弹幕:
有网友甚至直呼道:
编程,已经变成 AI 自己的游戏了。
这就是 OpenAI 重磅发布的新品——Codex,一个能自己编程的 AI。
AI 编程这事并不新鲜了,像 GitHub 前不久闹得风风火火的 Copilot,就是其中一个。
但它背后的技术,其实还是来自于 OpenAI。
然而这一次,OpenAI 给自己的能力升了个级,来了个新版本。
不仅如此,搞一个小游戏,仅仅是 Codex 能力的冰山一角罢了。
一起感受一下它更多惊艳的表现吧。
不用打字,直接语音命令它!
给 AI 打字“提需求”,还是略显麻烦了一些。
能不能直接说话下达命令呢?
这个还真可以有!
OpenAI 这次与微软合作出了一个 Word 插件,便带了这种语音控制的功能。
直接对着 AI 下命令“把每行开头的空格去掉”,AI 通过微软给的接口一顿操作,成功执行:
啪的一下,全文就左对齐了有木有。
而且 AI 还精准地理解了命令的含义,那些段与段之间的空行并没有改动。
来再复杂一点的。
给 AI 下达“每数到五行就加粗”命令,也是能轻松 hold 得住:
这种把任务吩咐下去,就有“人”给你完成的感觉,是不是很像老员工指挥实习生?
总之呢,是比罗永浩前几年发布的 TNT 系统语音办公要强上那么“亿”点点了。
除了官方的演示,这次内测用户 aniakubow,还让 AI 表演了通过 152 字描述生成一个网页。
可以看出这里 Codex 是用 Javascript 操作 Document 对象来生成网页,可能是训练集里没有直接的 HTML 代码的缘故吧。
最后,除了现场演示外,OpenAI 还在 Arxiv 上发布了 Codex 的论文预印版。
论文中,Codex 要面对的挑战甚至有刷 IOI 和 ACM 难度的竞赛题!
Codex 用对每道题生成 1000 种答案这种暴力方法,能做出 600 多道竞赛题测试集中的 3.23%,并且通过全部的测试用例。
这个编程题目测试集是 UC 伯克利研究人员在 5 月份刚刚做好的。
当时测试的 GPT-2、GPT-3 和开源的 GPT-Neo 可是在竞赛难度上全军覆没,一道都没做出来。
没想到短短两个多月,专为代码而生的 Codex 就为前辈们洗刷了耻辱。
Codex 的“魔法”,是如何实现的?
这么炫酷的能力,莫非还是像 GPT-3 一样堆数据,大力出奇迹吗?
不全是,这次 Codex 最大的一个版本是 120 亿参数,比起 GPT-3 的 1750 亿还是小了很多。
要了解具体情况,还要从它的开发历程说起。
最早,OpenAI 研究人员拿 GPT-3 做各种试验,发现 GPT-3 能从 Python 注释中生成一些简单的代码。
这可把他们高兴坏了,因为 GPT-3 根本没特意拿代码训练过,只是看过一些博客和帖子中零星的代码片段。
想想 GPT-3 在自然语言上的出色表现,要是专门训练一个代码版的 GPT-3,那肯定也能再次震惊业界。
于是,他们找到了 GitHub,这个拥有最多开源代码的“小伙伴”来合作。
一开始是拿到了 179G 的 Python 代码,但其中不乏存在一些篇幅太长的,以及明显是自动生成的那种。
在剔除掉这些“不达标”的代码后,最后留下的代码大小为 159G。
接下来当然是做预训练,把这些代码都喂给 AI(Codex)。
不过这里有一个问题:
GitHub 上的开源代码难免会有 Bug,AI 学了一堆有问题的代码可咋办?
其实这倒也好说,预训练之后不是还要微调嘛。
微调的时候,全用编程竞赛里的正确答案,以及 PyPI 里的靠谱开源代码就可以了。
最后,120 亿参数版的 Codex,能对 28.81% 的问题给出正确答案。
这个准确率超过之前的开源代码预训练模型 GPT-Neo 和 GPT-J,还有基于 GPT-2 的代码补全工具 TabNine。
这个成绩虽然不错,不过离能实际应用还是有点远了。
不过,这也难不住 OpenAI 的研究团队。
他们很快便想到了“突破口”:
人类编程的时候,不也经常先出一个版本,然后反复修改 bug 嘛~
那就让 AI 像人一样反复修改,改出 100 个版本来,从中总能挑出几个正确的来。
用上这种拿“量”堆出来的方法,Codex 的最终成绩是:
77. 5%!
强,但不完全强
Codex 令人惊艳的表现,一度让网友们大呼:
要失业了要失业了!
有人直接在公屏上打出:再见了,计算机专业的学子们。
不过大家也不必如此担心,因为在演示过程中,其实就出现了翻车的情况。
在输入“Say Hello World with empathy”后,Codex 给出的结果居然还是“Hello World with empathy”。
这也侧面说明了 Codex 现在还不是完美的。
OpenAI 就表示:
即便是参数达到 120 亿的 Codex 12B,它的能力可能也还不如一位编程刚刚入门的学生。
虽然 Codex 学习上亿行代码,但它更大程度是“记住了”这些代码,并不是真正意义上的懂编程语言。
而且 Codex 对长字符串的理解也比较困难。
并且随着字符数量的增加,Codex 的性能表现下降得非常明显。
在这种情况下,Codex 就不能很好地理解用户的意图,结果可想而知,给出的代码可能就是完全错误的了。
此外,在理解变量和运算较多的注释时,Codex 也会犯错:
在这个例子中,120 亿参数版的 Codex,忘记了对变量w做减法,也没有返回所有数字的乘积。
这些对于还在学习编程的新手程序员而言,非常不友好。
而且由于生成的代码准确性和正确性都还不能保证,因此在安全问题上也存在一定风险。
不仅如此,OpenAI 还表示,Codex 会生成带有种族歧视的内容。
在社会层面上,OpenAI 还提出 Codex 的出现或许会冲击程序员的就业;如果被滥用,还有网络犯罪方面的隐患。
最后还有一点,就是环境方面的问题。
毕竟它作为大模型,参数量的规模不容小觑。
要不是合作方微软 Azure 云买了足够多的碳排放限度,Codex 可能还不能和我们见面呢(手动狗头)。
如果想要试玩的话,OpenAI 还准备了一个 Python 编程大赛,在这场比赛中 Codex 会作为你的搭档和你一同解题。
比赛将于北京时间 8 月 13 日凌晨一点开始,就是这时间对国内不太友好。
大赛报名地址
https://openai.com/blog/openai-codex/
参考链接
[1]https://www.twitch.tv/openai
[2]https://www.youtube.com/watch?v=hP5nOFi5HOw
[3]https://twitter.com/OpenAI/status/1422967522890973185
[4]https://arxiv.org/pdf/2107.03374.pdf
本文来自微信公众号 “量子位”(ID:QbitAI),作者:金磊梦晨明敏
相关文章:
- 信用卡 PIN 码很容易猜测
- 神经元簇发能模拟 AI 学习策略
- 蜘蛛丝可能根本不具有抗菌性质
- 佳能因禁止无墨水打印机扫描被起诉
- DeepMind盈利后开始「买买买」!收购机器人模拟平台MuJoCo,全面开源
- 分析师:新MacBook Pro搭载自家芯片,苹果利润率更高了
- 格芯提交上市申请IPO,筹资约26亿美元
- 美股周二:中概股普涨 阿里涨超6% 高途涨逾12%
- 搭配自研处理器与安卓12,谷歌新机Pixel 6起价599美元
- 摩根士丹利:马斯克有望凭SpaceX成首位万亿美元富豪
- 《鱿鱼游戏》助奈飞三季度新增用户翻倍,股价近新高
- DOTA 2又上热搜了 为什么这次大家到处刷“猛犸”?
- 多位游戏巨头联合希望美国政府监管盗版和作弊网站
- Google Play Data Safety开始接受开发者申请:2022年将强制执行
- 价格欺诈投诉引发公益诉讼 京东“划线价”格式条款须整改
发表回复