Google Colab上でOllamaを利用し、DeepSeekモデルを実行する方法を紹介します。
1. Google Colabのセットアップ
まず、新しいGoogle Colabノートブックを開きます。ランタイムのタイプをGPUに設定すると、処理が高速化されます。
2. Ollamaのインストール
以下のコマンドをセルに入力して、Ollamaをインストールします。
!curl https://ollama.ai/install.sh | sh
3. CUDAドライバのインストール
GPUを利用するために、CUDAドライバをインストールします。
!echo 'debconf debconf/frontend select Noninteractive' | sudo debconf-set-selections
!sudo apt-get update && sudo apt-get install -y cuda-drivers
4. Ollamaサーバーの起動
バックグラウンドでOllamaサーバーを起動します。
!nohup ollama serve &
5. DeepSeekモデルのダウンロード
DeepSeekモデルをOllamaにダウンロードします。
!ollama pull deepseek-r1
! ollama list
でモデルがダウンロードできたことを確認可能です。
6. OllamaでDeepSeekモデルを実行
DeepSeekモデルを使用してチャットを実行します。
コマンドラインで実行
!ollama run deepseek-r1
コマンドラインでも実行は可能ですが、Google Colab上ではやや使いにくいので、次に紹介するPythonスクリプトを使う方法がおすすめです。
Pythonスクリプトで実行
import ollama
response = ollama.chat(model='deepseek-r1:latest', messages=[
{
'role': 'user',
'content': 'Who are you?',
},
])
print(response['message']['content'])
7. まとめ
この手順を実行することで、Google Colab上でOllamaを利用し、DeepSeekモデルを動作させることができます。
今回紹介したコードはこちらのGoogle Colabから確認可能です。