実は流行っていたローカルAI

はじめに

もう年末ですね。
今年一年クレアヴォイアンスではAIを使ったサービス「kikitAI」の開始をしました。

「kikitAI」

https://lp.kikitaibot.com/

そこで今回は自分のPCでも動くローカルAIに関しての記事です。

🤖ローカルAIとクラウドAI👾

CHATGPTGoogle Geminiなど、 今では多くのAIアシスタントが出ていますが
これらは全てクラウドAIと呼ばれるクラウド上でサービスを利用しているものです。

ローカルAIは自分のPCや、社内にあるサーバに公開されているAIモデルを積んで
自分だけのAIを作成して利用すると言う物。

では、実際にやってみよう🧐

実はこのローカルAIの導入から利用までは意外と簡単です。

ローカルAI

🤖必要な物🤖
- PC (今回はWindows11)
NVIDIA GPUがあればベスト(VRAM 6GB以上あると快適)
GPUなくてもCPUで動く(遅いだけ)

- ターミナル(今回はパワーシェルを利用)

ローカルAIの王道「Ollama」

1️⃣Ollama をインストールする

① 公式インストーラを落とす

ブラウザで ↓
👉 Ollama 公式

→ Windows をクリック
→ OllamaSetup.exe をダウンロード

② インストール実行

OllamaSetup.exe を ダブルクリック
途中は全部 Next / Install
完了したらOK

📌 この時点で 裏で ollama サービスが常駐 する

2️⃣ ターミナル(パワーシェル)を開く

スタート → パワーシェルで検索

3️⃣ Ollama が動いてるか確認

ollama --version

→ollama version 0.1.xx

こんな感じのがでればOK

4️⃣ Gemma2 2B モデルをダウンロード
使うモデルはとりあえず軽量のモデルにします。

ollama pull gemma2:2b

モデルのボリュームが大きい程、学習しているデータ量が多く
推論の精度や最新情報の学習度合いが違います。

5️⃣ 実際に対話してみる(ここがゴール)

起動

ollama run gemma2:2b

完成

こんな感じになり、何か喋ってあげましょう
返事が来たら成功

ローカルAI VS クラウドAI

項目 ローカルAI クラウドAI
初期コスト 高い(GPU/サーバー購入) 低い(従量課金)
ランニングコスト 低い(電気代のみ) 高い(継続課金)
推論速度 スペック依存(遅め) 高速
情報漏洩リスク 低い 中〜高
最新情報 学習されていない 網羅されている
サーバー監視 必要 不要
学習コスト 高い 低い
障害対応 自己対応 ベンダー依存

年末の暇つぶしにAIと語り合ってみてください。
良いお年を🤡

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

上部へスクロール