フィールズ賞受賞者がChatGPT 5.5 Proで「PhD級」数学研究を達成

フィールズ賞受賞者のTimothy Gowers氏が、OpenAIのChatGPT 5.5 Proに数論の未解決問題を提示したところ、1時間未満で指数関数的バウンドを多項式バウンドに改善する成果を提示した。Gowers氏自身がこの結果を報告し、MITの研究者もこの着想を「completely original(完全に独創的)」と評価している。

Gowers氏の総括は興味深い。「数学的貢献のハードルは、LLMができないことを証明することに移った」という。これはLLMの数学能力が急速に向上しており、人間の数学者に求められる役割そのものが変化しつつあることを示唆している。

Gowers氏は人間の助けなしにこの結果を導いたとされており、AIの自律的な数学研究能力が新たな段階に入ったことを示す事例として、数学界とAI界の双方で大きな注目を集めている。


NvidiaのAI投資額が今年すでに400億ドルに到達

TechCrunchの報道によると、Nvidiaが2026年のAI関連エクイティ投資としてすでに約400億ドル(約6兆円)をコミットしていることが分かった。Nvidiaは引き続きAIエコシステムへの大口投資家としての立場を鮮明にしている。

この規模はGPUの販売収益にとどまらず、NvidiaがAI企業への資本参加を通じて業界全体への影響力を拡大していることを示している。ビッグテック各社のAI投資額が7,250億ドルに達しフリーキャッシュフローが過去最低に落ち込んでいるという先日のFT報道とも整合する動向だ。

AI競争がインフラ投資の段階からエコシステム支配の段階へと移行しつつある中、Nvidiaの戦略的位置づけがさらに強固になっている。


Qwen3.6-27B × MTPがデュアルAMD MI50で2倍高速化

RedditのLocalLLaMAコミュニティで、AMDの旧世代GPUであるRadeon Instinct MI50を2枚使い、Qwen3.6-27BモデルでMulti-Token Prediction(MTP)を活用したベンチマーク結果が報告された。

llama.cppのMTP対応フォークを使用したテストでは、通常時26.2 tok/sからMTP単体で39.6 tok/s(約1.5倍)、テンソル並列との組み合わせで59.8 tok/s(約2.3倍)を達成。ドラフトの受容率は全体で約78%を記録している。

18Kトークンの実際のコーディングプロンプトでは、MTPとテンソル並列の組み合わせで23.07 tok/sから47.75 tok/sへと約2倍の高速化を実現した。一方で、MTP単体ではprefill速度の低下が見られ、この問題は現在修正が進められているという。

NVIDIA製GPUだけでなくAMD製の古いGPUでもMTPの恩恵が得られることが実証された点は、ローカルLLMコミュニティにとって大きな意味を持つ。


Transformerに論理推論の壁——Reddit ML界隈で構造的限界が議論に

RedditのMachineLearningコミュニティで、「Transformerに本物の論理推論をさせようとして壁にぶつかっている」という議論が活発化している。

投稿者は、確率的な次トークン予測器にプロンプトエンジニアリングで論理推論能力を持たせようとする業界のアプローチに疑問を呈し、「いくらスケールしても根本的に推論アーキテクチャを持たないモデルに論理は出てこない」と主張。Energy-Based Modelsなど、より基礎的なアプローチへの転換が必要だと訴えている。

RAGやChain-of-Thoughtを「高価な辞書に計算機が自然発生することを期待する行為」と比喩する表現もあり、実務者の疲弊と構造的な課題認識が浮き彫りになっている。実際、LLMを本番環境で運用する現場では、エッジケースでの論理的破綻が繰り返し問題視されている。


Factory「Missions」がマルチエージェント16日間自律稼働の設計原則を公開

Zennに公開された記事で、Factoryの「Missions」プロジェクトが16日間連続でマルチエージェントシステムを自律稼働させた経験から得た7つの設計原則が紹介されている。

最大の課題は人間の注意力がボトルネックになること。現在のLLMは50のタスクを同時に処理できるが、人間がその結果をレビューする能力には限界がある。この問題に対し、Factoryは「Missions」という粒度でタスクを管理し、エージェント間の協調と人間の介入ポイントを明確にするアプローチをとっている。

AI EngineerカンファレンスでのLuke Alvoeiro氏の講演をもとに構成されたこの記事は、マルチエージェント設計の実践的知見として参考になる内容だ。


その他のトピック

  • AnthropicのNLA技術: Anthropicが開発したNeuron-Level Attribution(NLA)が、LLMの内部活性化を人間が読めるテキストに変換する技術として注目されている。安全性研究への応用が期待される
  • DeepSeek V4 Flash: Prescienteのレポートによると、DeepSeek V4 FlashがLLM推論を4.3倍高速化したという。Canvasのデータ漏洩事件についても触れられている