中国製AIコーディングプラン、Claude/ChatGPTの代替として注目
Hacker Newsで、中国製AIサービスのコーディングプランをClaudeやChatGPTの代替として比較するスレッドが注目を集めている。
投稿者は、Claudeの使用量制限引き下げを契機に中国製AIへの乗り換えを検討。具体的に挙がっているのは以下の4サービス:
- GLM Coding Plan(Z AI):月額18ドルのLiteプラン
- BytePlus ModelArk Coding Plan:月額10ドル
- Kimi AI Moderato Coding Plan:月額19ドル
- MiniMax Plus Standard Plan:月額20ドル
投稿者は「ベンチマークスコアはすでにSonnetやHaiku 4.5に非常に近く、価格はその一部」と指摘。パフォーマンスと使用量制限を重視しており、データの行き先は懸念していないという。コメント欄では実際の利用体験について情報交換が行われている。
中国製LLMの価格競争力は確かに向上しており、コーディング用途での選択肢として無視できない存在になりつつある。
Qwen3.6-27BをV100 SXM2×2で動かすベンチマーク結果
RedditのLocalLLaMAコミュニティで、Qwen3.6-27B(Q8_0量子化)をTesla V100-SXM2-32GB×2枚(合計64GB VRAM)で動かしたベンチマーク結果が投稿された。
主な結果は以下の通り:
| コンテキスト長 | プリフィル(t/s) | 生成(t/s) |
|---|---|---|
| 4,096 | 797 | 31.2 |
| 16,384 | 703 | 30.3 |
| 65,536 | 473 | 26.7 |
| 128,000 | 353 | 23.1 |
| 200,000 | 267 | 18.5 |
2枚で約1,200ドルというコストに対して、200Kコンテキストでも18.5 t/sを維持している点は実用的と言える。ただし65Kコンテキスト以降でプリフィル速度が大きく低下しており、長いコンテキストを頻繁に扱う用途では注意が必要だ。
3090×1枚(24GB)と比較すると、64GBのVRAMでコンテキスト不足に悩まされないという利点は大きい。
ワールドモデル向け「物理ベース」動画パイプラインが提案
RedditのMachineLearningコミュニティで、インターネット規模の動画データがワールドモデルの学習において「物理的に壊れている」という問題を指摘し、それを解決するマルチモーダルパイプラインが提案された。
このパイプラインは海岸環境を究極のストレステストとして扱っている。波の反射、非リジッドな動き、霞(ヘイズ)など、AIにとって特に難しい視覚現象を含む環境だ。
主な特徴は以下の通り:
- RAW動画:圧縮なし、レンズ歪みゼロ、測光学的なグラウンドトゥルースを保持
- 同期マルチモーダル信号:高忠実度空間オーディオと風・大気データを視覚動きと相関付け
- キャリブレーション:シーン内にグレーカードとクローム球を配置し、正確なマテリアル・ライティング転送を可能に
物理シミュレーションを必要とするAI(Physics-Informed AI)やワールドモデルの研究において、データ品質がボトルネックになっているチームにとって興味深いアプローチだ。
まとめ
今日は比較的落ち着いたニュースデーだった。中国製AIのコーディング用途での台頭、ローカルLLMのハードウェア選択肢の拡大、そしてAI研究におけるデータ品質への意識の高まりという3つのトレンドが見えた。いずれもAIの実用化が進む中で、コストと品質のバランスをどう取るかという共通のテーマにつながっている。