shisa.ai
返​回​新闻​列​表
研究

Shisa-Gamma-7b-​v1 下​载量​突破​ ​100 万​次

在​作为​演化​模型​合并​的​核心底​座​发布​一​年​后,​我们​的​模型​达成​这​一​重要​里程碑。

Shisa-Gamma-7b-​v1 下​载量​突破​ ​100 万​次

距离 Sakana ​AI ​发布​关于​ ​LLM 演化​模型​合并​ ​的​开创性​研究​已​过去​一​整年,​该​研究​采用​了​我们​的​ ​shisa-gamma-7b-​v1​ ​作为​日语​模型​底座。​我们​非常​荣幸​看到​该​研究​成果于​今年​ 1 月​发表​在​ ​《自然​·机器​智能》​ (Nature Machine ​Inte​lligence​) 上。

得益于​该​项​研究​的​广泛​影响,​以及​模型​在​ Weights & Biases Nejumi LLM ​排行榜 ​上​的​持续​优异​表现,​该​模型​获得​了​社区​的​广泛​认可,​目前​下​载量​已​正式​突破​ ​100 万次。

在​持续​创新​的​过程​中,​我们​诚邀​您​体验​最​新​的​ ​shisa-v2-llama3​.1-8b-preview ​模型。​这​是​我们​迄今​为止​最​强​大​的​版本,​在​指令​遵循、​创意​写作​能力​及​分词​效率​方面​均​有​显著​提升。

我们​衷心​感谢​ Mistral ​AI、​Stability AI Japan ​以及​开源​ A​I ​社区​的​宝贵​贡献,​正​是​由于​你们​的​支持,​才​使得​这​一切​成为​可能。

更​多​新闻