投稿

4月, 2025の投稿を表示しています

ChatGPTが描いてくれたのらちゃんのイラスト

イメージ
最初に描いてもらったのがこれ。 プロンプトはシンプルに「素敵なイラストにしてください。」 妹に見せたら「そっくり!」と言われましたw 次は「可愛いイラストにしてください。なお、目つきが悪いのはチャームポイントなので、そのまま表現してください。」とお願いしてみました。 可愛いです^^ 目つきw 次はジ◯リ風をお願いしてみました。 私の母に抱かれているところを2枚描いてもらいましたが、どちらも最高(笑 最後はジブリ風を3Dアニメ風に変換してもらいました。 そっくりすぎてひとしきり笑ってしまいましたww

庭の花

イメージ
2025.04.22

庭の花とのらちゃん

イメージ
庭の花を撮っていたらのらちゃんがやってきました^^

今日の、のらちゃん

イメージ
私について外に出て、家に入ろうとしないのでしばらくほっときますw  

庭の花

イメージ
2025.04.16

Macでollamaを使う際にモデルの保存場所を指定する方法

(備忘録) Geminiに聞いてみた。 MacにOllamaをインストールし、特定の場所にモデルを保存する方法は以下の通りです。 1. Ollamaのインストール Ollamaの公式サイトからMac用のインストーラをダウンロードし、インストールします。インストーラに従って操作すれば、簡単にインストールできます。 • 参考情報: ◦ Ollama (Lllama2とかをローカルで動かすすごいやつ) をMacで動かしてみる - Zenn: https://zenn.dev/optimisuke/articles/c29fe9ef8cd28d 2. モデルの保存場所 デフォルトでは、Ollamaのモデルは以下の場所に保存されます。 • ~/.ollama/models この場所を変更したい場合は、環境変数OLLAMA_MODELSを設定する必要があります。 3. 環境変数の設定 環境変数を設定するには、ターミナルを開き、以下のコマンドを実行します。 Bash export OLLAMA_MODELS=/path/to/your/desired/location /path/to/your/desired/locationは、モデルを保存したい場所のパスに置き換えてください。 この設定を永続化するには、.bash_profileや.zshrcなどの設定ファイルに上記のコマンドを追加します。 4. モデルのダウンロード Ollamaでモデルをダウンロードするには、ターミナルでollama pullコマンドを使用します。例えば、llama2モデルをダウンロードするには、以下のコマンドを実行します。 Bash ollama pull llama2 ダウンロードしたモデルは、上記で設定した場所に保存されます。 補足: • Ollamaは、ローカルで大規模言語モデル(LLM)を実行するためのツールです。 • Ollamaを利用することで、インターネット接続なしでLLMを使用することが可能です。 • 環境変数の設定は慎重に行ってください。誤った設定を行うと、システムに悪影響を与える可能性があります。 • 詳細な情報については、Ollamaの公式サイトや関連ドキュメントを参照してください。 これらの手順に従うことで、MacにOlla...

ロードレーサー

イメージ
30代前半に乗っていたロードレーサーの写真。 同じ頃やっていたウエイトトレーニングで膝を痛めてしまい、あまり乗らないまま倉庫で眠っていたものを引っ張り出して撮影。(数年前のことです) 整備して乗るか!と思っていたのですが、事情を知らない親に捨てられてしまいました(笑)

庭の花

イメージ
2025.04.11

ほとんど着ていないノ◯フェのウインドシェルの裏側がボロボロ(TT)

イメージ
多分10回も着ていないTHE NORTH FACEのウインドシェル。着ようと思って引っ張り出したら裏側がボロボロ(TT) 着てないとはいうものの、買ったのは10年以上前。経年変化ですかね? 経年変化の酷さは化学素材の弱点ですね。