背景
検証してた機械学習のリポジトリは、事前にあれこれインストールが必要だった。 でも環境を汚したくはなくって vscode の Dev Containers で用意した Ubuntu と CUDA を使った環境を構築した話。
docker はちゃんと設定をしないと CUDA は使えないのがポイント。
Dev Containers は凄く便利なので、使ってない人は是非。
必要なもの
nvidia-smi で動作確認
- Containerを作る前に、ローカルの環境で
nvidia-smi
が使えることを確認する。 こんな感じのが出たらOK。
Containerを作る
-
作業ディレクトリを開いて、リモートエクスプローラーからOpen Current Folder in Containerを選択。
Ubuntu の次に Python(latest) を選択すると Container が作られる(ちょっと時間かかる)。
-
devcontainer.json に runArgs を追記する。
デフォルトでは動作確認で使用した
nvidia-smi
が見つからず、 CUDA が使えないはず。Docker は GPU を使用する場合にdocker run
の引数で指定する必要がある。devcontainer.json で runArgs の設定を変更する。
-
左下からリモートウィンドウを開いて container を rebuild。
-
nvidia-smi で再度確認。
- nvidia-smi