Google ColabでOllamaを使ってDeepSeek-r1モデルを動かす

AI・機械学習

Google Colab上でOllamaを利用し、DeepSeekモデルを実行する方法を紹介します。

1. Google Colabのセットアップ

まず、新しいGoogle Colabノートブックを開きます。ランタイムのタイプをGPUに設定すると、処理が高速化されます。

2. Ollamaのインストール

以下のコマンドをセルに入力して、Ollamaをインストールします。

!curl https://ollama.ai/install.sh | sh

3. CUDAドライバのインストール

GPUを利用するために、CUDAドライバをインストールします。

!echo 'debconf debconf/frontend select Noninteractive' | sudo debconf-set-selections
!sudo apt-get update && sudo apt-get install -y cuda-drivers

4. Ollamaサーバーの起動

バックグラウンドでOllamaサーバーを起動します。

!nohup ollama serve &

5. DeepSeekモデルのダウンロード

DeepSeekモデルをOllamaにダウンロードします。

!ollama pull deepseek-r1
! ollama list

でモデルがダウンロードできたことを確認可能です。

6. OllamaでDeepSeekモデルを実行

DeepSeekモデルを使用してチャットを実行します。

コマンドラインで実行

!ollama run deepseek-r1

コマンドラインでも実行は可能ですが、Google Colab上ではやや使いにくいので、次に紹介するPythonスクリプトを使う方法がおすすめです。

Pythonスクリプトで実行

import ollama

response = ollama.chat(model='deepseek-r1:latest', messages=[
  {
    'role': 'user',
    'content': 'Who are you?',
  },
])
print(response['message']['content'])

7. まとめ

この手順を実行することで、Google Colab上でOllamaを利用し、DeepSeekモデルを動作させることができます。

今回紹介したコードはこちらのGoogle Colabから確認可能です。

タイトルとURLをコピーしました