查看原文
其他

微信AI攻克与女孩聊天重大难题

微信派 2022-10-24

士别三日,当刮目相看。


微信那些自称语言大师(擅长各类计算机语言:Python、Java、C++...)的程序员同事们,最近又解锁了一个新语言领域,即和女孩聊天的深奥“科学”。


他们还特意炫了一段聊天截图,你看看👇



这个WeLM到底是何许人?


正准备去问,很快,它的两段自我介绍也发过来了。



好家伙,竟然整起了古文。


虽然似懂非懂,但大抵可以确定WeLM它不是人!


经同事介绍,WeLM其实是微信版的大规模语言模型,全名Well-Read Language Model。它通过学习包括中文网页、大量书籍、新闻、论坛数据和学术论文等百亿级的参数,最终锻炼成了一个学富五车的有文化、高情商的“语言大师”。


简单来说,我的同事们用计算机语言训练并攻克了人类的对话沟通语言,并且还轻描淡写地说什么“都是语言,应该没什么区别。”



有了WeLM不仅可以跟女孩轻松对话,还能跟古人对话。


· 一上来就挑战高难度,直接对话李白。



这水平,搞起文学创作也不在话下。


· 写小说:


· 写诗歌:


· 以及,写公众号推文:



因为学富100亿(参数),它记忆力惊人,很爱接话。



遇到知识疑问,它深厚的文化底蕴也就显现出来了。



跨语言聊天,搞搞翻译甚至三语夹杂也难不倒它。



假以时日,它的逻辑思维能力也足以驾驭阅读理解题了。



也千万别跟它斗嘴,这只会让它持续纠错变成大聪明。


当然,仅仅单任务工作已经无法表现它的“非人类”了,要知道WeLM最多可以同时干14件事情。可以说因为一个“跟女孩聊天”的小困扰,最终逼出了最强的AI。


WeLM还在持续变强,其实它百亿级别的参数量跟国外大规模语言模型比起来并不算大。但实验结果显示,它在18个中文语言任务里,效果堪比参数量是其25倍的模型。


归根结底是WeLM在精心准备的更加高质量的数据上经过了充分训练,简单来说,就是WeLM吃的都是精粮,更加“益智健脑”。


现在,WeLM线上Demo释出的功能包括:对话-采访、阅读理解、翻译、改写、续写以及自由任务。


如果你已经手痒了,可以来练练它👇


体验链接:

https://welm.weixin.qq.com/docs/playground/

API接口:

https://welm.weixin.qq.com/docs/api/

论文地址:

https://arxiv.org/abs/2209.10372


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存