ミニPCのM.2 SSDポートにOculink用アタッチメントを追加し、外付けGPUとしてRTX 3070 Tiを接続。
PCIe直結のためThanderbolt接続よりロスが少なく、LM StudioでのローカルLLM推論が想像以上に安定した。現在はOpenAI系の20Bモデルを中心に試しており、VRAM 8GBでも実用的な応答速度が得られている。推論専用だけでなく、軽めのゲームも問題なく動作し、検証と息抜きを一台でこなせるのが面白い。電源や冷却の工夫は必要だが、省スペースで高性能な検証環境として手応えを感じている。
メモリ価格が落ち着いたら、AIAPU使ったPC自作を視野。こちらに今回のOculinkを繋げて高パフォーマンスを狙う。