百度推出的产业级知识增强大模型
7B 参数 LLM 经过微调以支持具有超过 65K 令牌的上下文
LLaMA最大竞争对手 Dolly 2.0 发布DataBricks发布了了Dolly2.0,120亿个参数。同时发布了15k 的 dataset,由5000人花费2个月时间编写,不同于1.0的用Alpaca使用OpenAI 自动生成的语料。
MLC LLM 是一种通用解决方案,允许将任何语言模型本地部署。
HuggingFace推出的大型语言模型(LLM)
即时神经图形基元,照片生成3D模型
OpenAI旗下DALL·E 2模型