本記事はパラメータが3B(30億パラメータ)以下の比較的小規模なLLMのマージや量子化の効率的な処理方法と、それをローカルで動かす際の、Ollamaの使い方の注意点についてまとめたものです。実際に実行した環境は以下の通りです。 ・ローカルPC: M1 Macbook Air Ventura13.6.7 メモリ8GB CPU8コア・GPU7コア モデルのマージ 比較的簡単にモデルのマージをしたい場合には、定番のMergekitがお勧めですが、更にインストールや各種設定等の手間も省きたい人にお勧めなのはLazyMergekitです。 リンク:LazyMergekitのnotebook(Github: mlabonne/llm-course) このGithubサイトにあるLazyMergekitのnotebookリンクを開き、自分のGoogleDriveにコピーして使います。最初マージに必要な設