推广 热搜: quot;/  校长  quot;  lt;met  作者,    叶县  时期  APP  重点 

清华系「自然语言编程神器」上新!支持100+种编程语言,效率upup

   日期:2023-08-01 14:25:37     来源:[db:出处]    作者:[db:作者]    浏览:10    评论:0    

原标题:清华系「自然语言编程神器」上新!支持100+种编程语言,效率upup

克雷西 发自 凹非寺

量子位 | 公众号 QbitAI

清华和智谱AI联合打造的多语言代码生成模型CodeGeeX,更新了!

它支持的编程语言种类 从原来的20种增加到100多种

通过IDE中的插件,可以轻松实现「无缝自然语言编程」。

由于使用了新版基础模型,CodeGeeX2的功能更加强大。

据了解,这次的新版本,精度和速度分别是原来的两倍和三倍,内存消耗却只有1/5。

代码生成、解释、翻译、纠错和编程问答等工作,效率都比以前有显著提高。

作为「课代表」,我们把CodeGeeX的更新概括成了下面这几个方面:

  • 代码能力更强了
  • 模型特性得到了优化
  • AI编程助手功能更全面了
  • 用户协议更加开放
插件版本也将全面更新

模型用起来太繁琐?没关系,除了模型本身的更新,CodeGeeX的插件版本很快也将全面升级至新版。

新插件同样支持超过100种编程语言,说不定比我们知道的还要多。

这之中除了Python、Java等我们耳熟能详的语言之外,还包括Swift、Kotlin等移动端新兴势力。

甚至像Rust这种系统级的编程语言,也在CodeGeeX2的能力范围之内。

比如下面这张动图就展示了CodeGeeX2生成Kotlin代码的场景。

代码生成的速度简直比人类输入指令的速度还快。

而且从中我们可以看到,CodeGeeX2添加注释或debug都能一键完成。

不仅是设计算法,实用程序的编写也是小菜一碟。

补全个vue.js代码,搭建出网页,效率杠杠的!

除了这些代码相关的任务,CodeGeeX2还有很多其他应用场景。

比如查询SQL数据库。

只要打开问答模式,用自然语言描述想要查询的内容,CodeGeeX2就能自动生成SQL查询语句。

模型变强之后,会不会收费呢?不必担心,新版CodeGeeX插件将 继续对个人用户免费开放

而6B参数的CodeGeeX2,也已经进行了开源,相关代码可以到GitHub仓库中查看。

GitHub Copilot的模型也不是对手

OpenAI的Humaneval评测标准可以很好地评价生成代码的表现。

这个名字很容易理解:模型生成的代码质量如何将由人类来评价。

在Humaneval评测中,6B参数的CodeGeeX2的得分 比15B参数的StarCoder模型还要高,可谓是四两拨千斤。

而GitHub Copilot中曾使用的Code-Cushman-001模型同样不是CodeGeeX2的对手。

不过,CodeGeeX毕竟是一个多语言模型,而Humaneval却只支持Python。

所以,为了更加准确地测试CodeGeeX的表现,智谱团队在其基础上增加了Go、C++、Java和JS四种语言的测试数据,得到了Humaneval-X数据集。

结果显示,在多语言方面,新版CodeGeeX2的表现和在Python中一样优异。

相较于第一代,CodeGeeX2的Pass@1指标在各个语言上的 平均表现提升了107%

其中, Rust语言的性能提升显著,提升了321%;C++和JS语言上的表现也提升了70%以上。

而在代码翻译方面,CodeGeeX2的表现同样碾压对手。

「不看广告看疗效」,CodeGeeX不仅测试结果优异,用户的认可度也是很高的。

在「CodeGeeX是否提高了编程效率」这一问题中,有 83.4%的用户给出了正面的答案

除了调查结果,用户们也在「用脚投票」。

自第一个版本发布以来,CodeGeeX的下载量已达12万次,平均每天生成近千万行代码。

这是个什么概念呢?如果只看代码行数,相当于不到一周的时间就写出一套Windows XP。

说了这么多,CodeGeeX又该如何体验呢?

快速体验

第一种方式就是IDE中的插件,VScode和JetBrains系列IDE的插件仓库中均有收录。

除了使用IDE中的插件之外,CodeGeeX也可以在Transformer中快速调用。

fromtransformers importAutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained( "THUDM/codegeex2-6b", trust_remote_code= True)

model = AutoModel.from_pretrained( "THUDM/codegeex2-6b", trust_remote_code= True, device= 'cuda')

model = model.eval

# remember adding a language tag for better performance

prompt = "# language: python\n# write a bubble sort function\n"

inputs = tokenizer.encode(prompt, return_tensors= "pt").to(model.device)

outputs = model.generate(inputs, max_length= 256, top_k= 1)

response = tokenizer.decode(outputs[ 0])

>>> print(response)

# language: python

# write a bubble sort function

没有支持的IDE,Transformer又觉得麻烦,但还是想体验怎么办?

没关系,这里还有个还有在线版DEMO。

传送门:https://codegeex.cn/zh-CN/playground

赶快来感受一下「无缝自然语言编程」吧!

论文地址:

https://arxiv.org/abs/2303.17568

Github项目页:

https://github.com/THUDM/CodeGeeX2

Hugging Face项目页:

https://huggingface.co/THUDM/codegeex2-6b

「AIGC算力全景与趋势报告 · 量子位智库」下载

AIGC时代,算力成为「硬通货」。当前大模型的发展对算力产生新的需求,算力行业迎来变革机会。机遇当前,量子位智库发布《AIGC算力全景与趋势报告》,扫描下方二维码即可查看完整报告。

8月9日,我们将在北京举办「量子位AIGC行业沙龙——AIGC时代的算力基石」,欢迎感兴趣的企业联系~

点这里

内容由网友发布或转自其他网站,如有侵权及其他问题,请发送邮件至jiyuwang@qq.com,我们将第一时间处理。
 
打赏
0相关评论

推荐图文
推荐资讯
点击排行
Powered By DESTOON