Sam Altmanの個人投資に政治的監視の目 — OpenAI IPO前の波紋

OpenAIのIPO計画が進む中、CEO Sam Altmanの個人投資ポートフォリオに政治的な注目が集まっている。The Decoderの報道によると、Altmanの個人投資先がOpenAIの企業統治や利益相反の観点から精査を受けつつあるという。IPO前のこの段階で経営トップの個人的な資産運用が焦点となるのは珍しくなくないが、AI業界におけるOpenAIの影響力の大きさを踏まえると、透明性への要求は一層強まるとみられる。

CanvaのAI「Magic Layers」が「Palestine」を「Ukraine」に置換 — ユーザーデザインを勝手に改変

デザインプラットフォームCanvaのAI機能「Magic Layers」が、ユーザーが作成したデザイン内のテキスト「Palestine」を自動的に「Ukraine」に置換していたことが明らかになった。Gizmodoの報道によると、この問題は複数のユーザーから指摘され、Canvaは「不快感を与えたことを謝罪する」と声明を出した。AIコンテンツフィルターの過剰な動作が、ユーザーの意図しない政治的改変を引き起こした形で、AIツールにおけるコンテンツモデレーションの難しさを改めて示す事例となっている。

翻訳評価メトリクスの盲点 — TranslateGemma、自動スコアは「合格」でも人間は71%にエラー発見

Redditのr/MachineLearningとr/LocalLLaMAで話題を集めているTranslateGemma-12bのベンチマーク検証結果は、AI翻訳の評価手法に対する重要な問いを投げかけている。

翻訳特化モデルTranslateGemma-12bは、MetricX-24とCOMETKiwiという二つの代表的な自動評価指標で高スコアを記録していた。しかし、専門の言語学者による人間のレビュー(MQM評価)を行ったところ、自動指標が「問題なし」と判定した84件の翻訳のうち、71%にあたる60件に何らかのエラーが見つかった。

特に日本語翻訳では「流暢だが意味が間違っている」というパターンが顕著で、全15件の誤訳のうち10件が日本語だった。自動指標のCOMETKiwiスコアは日本語が最も高かった(平均0.86)にもかかわらず、である。これは、自動評価指標が集団レベルでは人間の判断と相関するものの、個別のセグメントの品質判定には不十分である可能性を示唆している。

カーネルレベルのサンドボックスでAIエージェントを安全に実行 — 「Cplt」公開

ノルウェーのNAV(労働福祉局)の技術チームが、AIコーディングエージェントをカーネルレベルのサンドボックス内で実行できるツール「Cplt」をGitHubで公開した。AIエージェントがファイルシステムやネットワークにアクセスする際、サンドボックスにより意図しない操作を防ぐ仕組みで、エージェントの安全性を確保しつつ開発効率を維持するアプローチとして注目される。

AIサービスへのリクエストから個人情報をマスク — 「Kiji Proxy」

Dataikuが「Kiji Proxy」をオープンソースで公開した。AIサービス(ChatGPTやClaudeなど)へのAPIリクエストに含まれる個人情報を自動的に検出・マスクするプロキシサーバーで、企業がAIツールを利用する際のデータ漏洩リスクを軽減することを目的としている。生成AIの企業利用が拡大する中、データガバナンスの実用的なソリューションとして需要が高まるとみられる。


Sources: