BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
收录说明:
1、本网页并非 乾元BigBangTransformer 官网网址页面,此页面内容编录于互联网,只作展示之用;2、如果有与 乾元BigBangTransformer 相关业务事宜,请访问其网站并获取联系方式;3、本站与 乾元BigBangTransformer 无任何关系,对于 乾元BigBangTransformer 网站中的信息,请用户谨慎辨识其真伪。4、本站收录 乾元BigBangTransformer 时,此站内容访问正常,如遇跳转非法网站,有可能此网站被非法入侵或者已更换新网址,导致旧网址被非法使用,5、如果你是网站站长或者负责人,不想被收录请邮件删除:i-hu#Foxmail.com (#换@)
正文完