ブックマーク / zenn.dev/yasuna (1)

  • M1MacでOllamaを試したら爆速で驚いた

    はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけるようになりました。 ずっと気になっていたのでついに私のM1 Macでも動くかどうかやってみました! 結論、爆速で推論できていたのでとても驚きました。OSS開発に感謝です! Ollamaとは OllamaとはローカルでLLMを動かすことができるアプリケーションです。 以下からダウンロードできます。 MacOSLinuxで使うことができます。Windowsもプレビュー版があるみたいです。 #いざ推論 ダウロードができたらシ

    M1MacでOllamaを試したら爆速で驚いた
    zgmf-x20a
    zgmf-x20a 2024/05/19
    先日のAI24時間ハッカソン大阪で我々のチームは、64GBのMakBookProでCommandR/ollama0.1.36を実行した。20GBのモデルなので64GBの主記憶は奏効した。
  • 1