“Mistral社のMIxtral 8x7Bをベースにした日本語の語彙拡張版継続事前学習です。”

misshikimisshiki のブックマーク 2024/04/22 15:02

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Megatron-LMとGKEで作るMixtral 8x7Bを語彙拡張継続事前学習 Part1 ~学習コードとモデルの先行公開~ - ABEJA Tech Blog

    こんにちは!ABEJAでデータサイエンティストをしている大谷です。 ABEJAは国立研究開発法人新エネルギー・産業技術総合開発機構(以下「NEDO」)が公募した「ポスト5G情報通信システム基盤強化研究開発事業/ポス...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう