Macでollamaを使う際にモデルの保存場所を指定する方法
(備忘録)
Geminiに聞いてみた。MacにOllamaをインストールし、特定の場所にモデルを保存する方法は以下の通りです。
1. Ollamaのインストール
Ollamaの公式サイトからMac用のインストーラをダウンロードし、インストールします。インストーラに従って操作すれば、簡単にインストールできます。
• 参考情報:
◦ Ollama (Lllama2とかをローカルで動かすすごいやつ) をMacで動かしてみる - Zenn: https://zenn.dev/optimisuke/articles/c29fe9ef8cd28d
2. モデルの保存場所
デフォルトでは、Ollamaのモデルは以下の場所に保存されます。
• ~/.ollama/models
この場所を変更したい場合は、環境変数OLLAMA_MODELSを設定する必要があります。
3. 環境変数の設定
環境変数を設定するには、ターミナルを開き、以下のコマンドを実行します。
Bash
export OLLAMA_MODELS=/path/to/your/desired/location
/path/to/your/desired/locationは、モデルを保存したい場所のパスに置き換えてください。
この設定を永続化するには、.bash_profileや.zshrcなどの設定ファイルに上記のコマンドを追加します。
4. モデルのダウンロード
Ollamaでモデルをダウンロードするには、ターミナルでollama pullコマンドを使用します。例えば、llama2モデルをダウンロードするには、以下のコマンドを実行します。
Bash
ollama pull llama2
ダウンロードしたモデルは、上記で設定した場所に保存されます。
補足:
• Ollamaは、ローカルで大規模言語モデル(LLM)を実行するためのツールです。
• Ollamaを利用することで、インターネット接続なしでLLMを使用することが可能です。
• 環境変数の設定は慎重に行ってください。誤った設定を行うと、システムに悪影響を与える可能性があります。
• 詳細な情報については、Ollamaの公式サイトや関連ドキュメントを参照してください。
これらの手順に従うことで、MacにOllamaをインストールし、指定の場所にモデルを保存することができます。