Qwen 3.6 35B A3Bがコミュニティ評価で頭角を現す

RedditのLocalLLaMAコミュニティで、ユーザーu/The_Paradoxyが独自の学術研究コードを使って複数の小型ローカルLLMをベンチマークした結果が注目を集めている。テスト対象はQwen 3.6 35B A3B、Qwen 3.6 27B、Gemma 4 26B A4B、Nemotron 3 Nanoの4モデル。

結果として、Qwen 3.6 35B A3Bが最も優秀だったという。同ユーザーは「数ヶ月前の小型ローカルモデルとは比較にならないほど能力が向上している」と指摘。特にGated Delta NetやHybrid Mamba2、Sliding Window Attentionなど長文脈対応技術の進歩が、モデルの「賢さ」を大幅に引き上げた要因と分析している。論文とコードを同時に読み込ませて対応関係を問うという難易度の高いテストでも、十分な実用性を確認したとしている。

Google Gemma 4 MTPドラフターがHuggingFaceでトレンド入り

Google DeepMindが公開したGemma 4シリーズのMulti-Token Prediction(MTP)ドラフターモデルが、HuggingFaceのトレンドランキングで急上昇している。

特に注目されているのは、google/gemma-4-26B-A4B-it-assistantgoogle/gemma-4-E4B-it-assistantの2モデル。いずれもApache 2.0ライセンスで公開されており、MTP技術を用いた推論高速化を実現する。MTPは複数トークンを同時予測することで推論速度を向上させる手法で、Gemma 4アーキテクチャと組み合わせることで効率的なローカル推論が期待できる。

AIデータセンターの超低周波音が問題に

Tom's Hardwareが報じたところによると、AIデータセンターが発生する**超低周波音(infrasound)**に対し、周辺住民からの苦情が増加している。通常のデシベルメーターでは計測できない周波数帯の音であり、住民は「音として聞こえないが、体で感じる不快感」と表現している。

AI推論需要の拡大に伴いデータセンターが急増する中、騒音問題は可聴域だけでなく超低周波帯にまで及ぶ可能性があり、新たな環境影響評価の課題として注目される。

AI信頼度に巨大な米中格差—Edelman調査

Edelmanが実施したTrust Barometer Flash Pollで、AIに対する信頼度に国際的な格差が浮き彫りになった。中国では**87%がAIを信頼すると回答したのに対し、米国はわずか32%**にとどまった。

この格差は、各国のテクノロジー規制アプローチやメディア報道の違い、あるいはAI導入の社会的文脈の差異を反映しているとみられる。AIの社会的受容において文化・制度的要因がいかに大きな影響を持つかを示す興味深いデータポイントと言える。

MicrosoftがAI活用フィッシング攻撃を警告

Microsoftのセキュリティブログが、AIを悪用したデバイスコードフィッシングキャンペーンの実態を公開した。攻撃者はAIを用いてフィッシングページやメッセージを高度にカスタマイズし、ターゲットを巧みに騙す手口を用いている。

従来のフィッシングと比較して、AI生成の攻撃は文脈に即した説得力のある内容を作り出せるため、セキュリティ意識の高いユーザーでも騙されるリスクが高まっている。企業・組織にとっては、多要素認証の適切な実装と、デバイスコード認証フローの見直しが急務となる。

進化したアンテナとLLM生成コード—a potential antifuture

Eric Baileyが興味深いエッセイを公開した。NASAが遺伝的アルゴリズムで設計した「進化アンテナ」は機能的だが人間が理解できない形態を持っていたが、これとLLM生成コードの類似性を指摘している。

コードが「動く」だけでなく「理解できる」かという問いは、AI生成コードの保守性と長期的な技術的負債を考える上で重要な視点を提供している。