Xiaomiが1TパラメータMoEモデル「MiMo-V2.5-Pro」を公開

XiaomiがオープンソースのMixture-of-Experts(MoE)言語モデル「MiMo-V2.5-Pro」をリリースした。総パラメータ数は1.02T、そのうちアクティブパラメータは42Bで、ハイブリッドアテンションアーキテクチャと3層Multi-Token Prediction(MTP)を採用している。最大コンテキスト長は100万トークンに達する。

Xiaomiは同社の「最も強力なモデル」と位置づけており、エージェント用途、複雑なソフトウェアエンジニアリング、長時間のタスク実行など、最も要求の厳しいユースケースを念頭に設計されたという。1TクラスのオープンソースMoEモデルが中国メーカーから登場したことは、オープンソースAI競争の激化を象徴する動きと言える。

AppleがSiri AI機能の誇大広告で390億円和解に合意

Appleは、音声アシスタントSiriのAI機能に関する誇大広告を巡る集団訴訟で、2億5000万ドル(約390億円)の支払いによる和解案を米国裁判所に提出した。

問題の根拠は、Appleが2024年に発表したAIプラットフォーム「Apple Intelligence」の開発遅れにある。同社はSiriの高度なAI機能を大きく宣伝したものの、実際の提供が大幅に遅れ、消費者の期待を裏切ったとされた。和解が承認されれば、対象となる米国の消費者は端末1台につき基本25ドルの支払いを受ける見込み。

AI企業だけでなく、プラットフォーム企業のAI機能に関する過剰なプロモーションに対する消費者の監視の目が厳しくなっていることを示す事例だ。

GoogleがオンデバイスAIのプライバシー保証を静かに削除

Googleが、同社のデバイスにAIモデルを組み込む過程で、オンデバイスAIに関するプライバシー保証の記述をこっそり削除していたことが判明した。

これまでGoogleは、AI処理をデバイス上で完結させることでユーザーデータをクラウドに送信しないことを強調してきたが、実際にはAIモデルの機能向上のためにデータをクラウドに送信する仕組みに移行しつつあるとみられる。プライバシーに関する約束を事後的に変更する行為は、ユーザーの信頼を損なうとしてHacker Newsでも議論を呼んでいる。

「ステップで考えて」がローカルLLMで逆効果に — CoTの限界を観察

Qiitaに興味深い実験結果が報告された。「ステップで考えてください」「Let's think step by step」というChain-of-Thought(CoT)のプロンプトが、ローカル環境(8GB VRAM)で動かすQwen2.5-14Bなどの小規模モデルにおいて、かえって精度を下げる3つの場面が観察されたという。

2022年の論文以降、CoTはLLMの精度を上げる「呪文」として広く受け入れられてきたが、この報告はモデルサイズが小さい場合にCoTが逆効果になる可能性を示唆している。特に推論能力が限られたモデルでは、ステップバイステップの指示がかえって混乱を引き起こすケースがあるとみられる。

プロンプトエンジニアリングにおいて「どんなモデルにも効果的な万能な手法はない」という教訓を実践的に示した事例として、ローカルLLMの活用者にとって参考になる。

DockerコンテナでAIコーディングエージェントを隔離実行するツール

GitHubで、AIコーディングエージェントを隔離されたDockerコンテナ内で実行するオープンソースツールが公開された。

AIエージェントが自律的にコードを生成・実行する際、ホストシステムへの意図しない影響を防ぐことは安全性の観点から重要だ。このツールは各エージェントセッションを独立したコンテナで実行することで、ファイルシステムへのアクセスやコマンド実行をサンドボックス化する。

AIエージェントの実用化が進む中、セキュリティと隔離のニーズは高まっており、シンプルながら実用的なアプローチとして注目される。


参考記事: