gpt属于OpenAI,oss代表开源软件,20b和120b代表了两个参数版本。
幸运的是,在它被删除之前,Jimmy Apples保存了配置,在只有不到「1分钟」的时间窗口!
他分享了一段LLM的配置文件,极有可能是OpenAI即将开源模型的详细参数。
这组参数像是一个基于MoE(Mixture of Experts)混合专家架构的高容量模型,具备以下几个特点:
· 36层Transformer,每层可能有MoE路由;· 大规模MoE设置(128个专家,每个token激活4个);· 词表超过20万,可能支持多语种或代码混合输入;· 上下文窗口为4096,但也有滑动窗口和扩展RoPE,表明模型可能具备处理更长上下文的能力;· 使用RoPE的NTK插值版本,这是许多模型扩展上下文的一种方式(如GPT-4 Turbo使用的方式);· 注意力头多达64个,但键/值头只有8个,意味着模型用的是是Multi-QueryAttention(MQA)。
他不仅也在Hugging Face上发现这个模型,甚至还有一位OpenAI成员点赞了他的爆料推文。
上传这个模型的组织叫做「yofo-happy-panda」,共有三名成员。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
外媒:意大利防长强烈谴责加沙援助船队遭袭事件,并派海军舰艇前往提供救援
大环境不好,下午茶都开始啃馒头了?网友:能有口吃的就不错了
前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
教师数字化学习案例•基础教育 哈尔滨新区第六学校:智教校园启新梦 慧学课堂育人才
realme 线 Pro 手机首发电竞独显芯片 R1,今年 10 月发布
高通骁龙 X2 Elite Extreme 处理器集成封装内存,位宽达 192-bit