AI趋势周报第212期:只用300美元,美顶尖大学联手训练出类GPT-4模型Vicuna
萤幕截图
重点新闻(0331~0406)
GPT-4 Vicuna 大型语言模型
美顶尖大学联手用300美元训练出类GPT-4的大型模型Vicuna
在史丹佛大学用600美元打造ChatGPT复制版的模型Alpaca後,包含CMU、加州大学柏克莱分校、史丹佛大学和加州大学圣地牙哥分校在内的几间美国顶尖大学,共同打造并开源一款类GPT-4的大型语言模型Vicuna,具130亿参数,产出的回答可达等同ChatGPT九成的品质,且比Meta的LLaMA和史丹佛大学的Alpaca还要好,但训练成本才300美元左右。
Vicuna的训练资料来自微调後的LLaMA,以及从ShareGPT收集的对话。ShareGPT是一个让使用者分享自己与ChatGPT对话的网站,团队在该网站收集了7万多个对话,并强化了Alpaca产出的训练脚本,来加强模型对多轮对话和长序列文字的能力。他们在1天内,以8个A100 GPU和PyTorch FSDP完成Vicuna的训练,後来,团队也设置80个多元的问题,让不同模型来回答问题,并以GPT-4来评估这些模型的回答,包括Vicuna、Alpaca、ChatGPT和LLaMA。其中,Vicuna的总分是ChatGPT的92%,且生成的答案比Alpaca还要详细、更有结构。但团队指出,Vicuna在程式码生成和基本数学问题的表现仍有待加强,且安全性也需进一步强化。(详全文)
UC Berkeley Koala 大型语言模型
UC Berkeley打造研究查询专用对话模型,打下LLM私有化基础
加州大学柏克莱分校(UC Berkeley)最近发表一款对话式大型语言模型Koala,可回答研究相关的查询问题,甚至模型产出的多数答案,比史丹佛大学的Alpaca模型要好,且至少一半的答案品质与ChatGPT相当。
进一步来说,团队先是收集网路上的对话资料,包括来自公开资料集和高品质的生成式AI对话,如ChatGPT/ShareGPT、Alpaca等,来微调Meta的LLaMA模型,并以此来训练Koala模型。他们从ShareGPT收集的对话有6万个示例,後来精简为可用的3万个,并采用HC3英语语料库中人类与ChatGPT的问答共8万7千多例,来训练Koala。不只如此,他们也从Alpaca、开放式资料集OIG、OpenAI WebGPT等处收集高品质的训练资料,并打造70亿参数和130亿参数版本的Koala。
後来,团队透过Amazon Mechanical Turk群众外包平台来评估Koala和Alpaca的效能,也就是让100位使用者评比哪种回答较好,发现近一半的回答评为比Alpaca好,近70%则与Alpaca相当或比它好。团队指出,虽然Koala的安全性和一致性仍有很大的进步空间,但与其他LLM相比,这种采用少量高品质资料训练而成的模型,效能与千亿参数的LLM相当,等於提供一种LLM私有化的发展基础,也就是能自行训练出等同於科技巨头的大型语言模型。(详全文)
Google ViT-22B 机器人
Google将ViT扩大到220亿参数,还结合LLM来执行机器人任务
Google在3月底发表一篇部落格文章,说明团队如何将Transformer电脑视觉模型ViT扩展至220亿个参数,也就是ViT-22B,比之前同类型最大模型ViT-e大了5.5倍(原40亿参数)。早在2月,团队就已发表ViT-22B论文,这次则说明模型扩展方法,也就是结合了如PaLM模型采用的扩展方法,同时运用QK正规化来改善训练稳定度,以及非同步平行线性操作来改善训练效率。
也由於ViT-22B有新架构和更有效率的分片配方,所以能在硬体利用率高的Cloud TPU训练。此外,ViT-22B也因为使用冻结表示(Frozen representation)或全微调,因而在许多电脑视觉任务上都达到SOTA等级。特别的是,ViT-22B还能整合到扩展版的大型语言模型PaLM-e中,成功执行电脑视觉和自然语言任务,大幅提高机器人任务能力。(详全文)
OpenAI GPT-4 安全性
等了6个月才发表GPT-4,OpenAI揭露AI安全性作法
尽管生成式AI带来各种可能,也隐含不少安全风险。OpenAI近日公开AI安全性做法,他们指出,在发表任何新系统前,团队都会进行一系列严谨的测试,并请外部专家提供回馈,藉由这种人工回馈强化学习技术来优化模型表现,同时打造监控系统,来观测模型使用状况。
OpenAI透露,正因此,他们训练完GPT-4後,额外花了6个多月来评估模型,确保模型的安全性和一致性,并有强大的监控系统,来防范滥用情况,比如使用者试图上传儿童性虐相关素材时,该系统会阻止该行为并通报美国受虐儿童中心。此外,OpenAI也与非营利组织Khan Academy合作,共同开发符合安全规范的AI助手,来作为学生的虚拟老师,也是老师的课堂助手。OpenAI同时也正开发输出设定功能,要让开发者用来调整模型输出,能更严格控管输出内容。
同时,OpenAI也主张从实际应用来改善AI安全性。因为,仅在实验室中评估,无法预测人们所有的运用方式。於是,OpenAI透过API提供模型技术,让开发者将模型嵌入自己的应用程式,这种方法,让OpenAI可掌握滥用行为并有所作为,也能从现实经验中来制定更细致的政策,来预防滥用风险。虽然现在只有ChatGPT Plus的订阅用户可使用GPT-4,OpenAI表示,他们希望以後能让更多民众使用。(详全文)…