普段使用しているPC(CoreUltra7 265k 64GB, GeForce RTX4070TiS)にインターフェース2025 3「仕事のための生成AI」を見ながらAI環境を構築してみました。
SSDを追加して、だいぶ容量が大きくなっていますが、最近追加した部分が増設したところに保存されているのか、ちょっと自信がありません。
1)LLM ローカルLLM開発環境
ollama とDocker Desktopをインストール
特に問題なくインストールでき、動作もしているようなのですが、使い方がよくわからないので、ボチボチ勉強してゆくつもり。
最近、疑問に思っているのは「何故、LLMで文章のサマリーが作れるんだろうか」ということ。 文章全体の意味を理解できるロジックが内蔵されているとは思えない。LLMってパターンマッチング、と品詞などの統計的な処理などの、細かい部分についての処理をしている事は理解できますが、それが文章全体の大意にどうして結びつくのか??、というか、人間が文章の要旨を作るという活動は何をしているんだろうか? という方向に頭が向いてわからなくなってしまった。
2)異常画像を作るレッスン
CUDAとcuDNNのインストールはNvidiaのページからダウンロードしてきて、問題なく終了?(Visual Studio Codeがインストールされていない状態で、CUDAインストールすると、うまくゆかないので、順番を間違えないこと。 最初これで引っかかった)
cuDNNのインストール後にzlibのdllが必要で、これをgithubからソースをダウンロードしてきて、cmakeでコンパイルするところで、躓きました。 こことか、ここにやり方が書いてあって、実行してみるとcmakeがうまく動いてくれませんでした。 最終的にここに出ていた、"x64 Native Tools Command Prompt for VS 2022を起動し、zlibをcloneしたフォルダに移動します。"で無事インストール出来ました。 (cmakeのインストールとかも、結構てこずってしまいました)。
こちらの方は、動作確認ができていないので、これから少しづつIFのサンプルコードを動かして確認してゆく予定。
しかし、これもStable Diffusionモデルで、なんで画像が作れるのか?がよくわかりません。人間様も同じような、ノイズの山から、古い記憶で少しづつ画像を組み上げてゆく、なんてことをしているんだろうか?
最近は、すぐに分からない事にぶつかってしまい、なかなか理解が進みません。
0 件のコメント:
コメントを投稿