Ilya Sutskever、Musk v Altman裁判で「OpenAIを壊したくなかった」と証言
元OpenAI首席科学者のIlya Sutskeverが5月11日、Musk対Altman裁判で証言に立った。彼は2023年11月のSam Altman解任劇における自らの役割について、「OpenAIが破壊されることを望まなかった」と正当化した。
Sutskeverは現在OpenAIを離れ独自のSSI(Safe Superintelligence Inc.)を設立しているが、古巣の防衛側証人として法廷に立った。元同社の首席科学者でありながら会社と距離を置く彼が、それでもOpenAI側のために証言台に立ったことは、この裁判の複雑な人間関係を浮き彫りにしている。
この裁判はElon MuskがOpenAIの非営利からの逸脱を訴えたもので、AI業界のガバナンスと方向性を巡る根本的な対立が審理されている。
Linuxに2週連続の重大脆弱性「Dirty Frag」— コンテナからroot権限奪取が可能に
Linuxに再び重大な脆弱性が発見された。先週「Copy Fail」と呼ばれる脅威が公開されたばかりの中、新たに「Dirty Frag」と名付けられた脆弱性により、低権限ユーザーやコンテナ環境からroot権限を奪取できることが判明した。
Microsoftは既に攻撃者がこの脆弱性を実環境で実験している兆候を確認したと発表。流出したエクスプロイトコードは確実に動作し、クラッシュも引き起こさないため、ステルス性が高い。特に共有サーバー環境でのリスクが大きく、AI推論基盤やクラウドインフラに広く影響を及ぼす可能性がある。本番環境向けパッチが順次公開されており、迅速な適用が推奨されている。
GMが数百人のIT従業員をレイオフ — AI人材への入れ替えが目的
ゼネラルモーターズ(GM)が数百人のIT従業員を解雇し、AIスキルを持つ人材に置き換える方針であることが分かった。TechCrunchの報道とHacker Newsでの議論で注目を集めたこの動きは、企業のAIシフトが従業員に直接的な影響を及ぼし始めた具体例として議論を呼んでいる。
テクノロジー業界全体で「AIスキル」への需要が高まる中、既存のIT部門が淘汰される懸念も指摘されている。一方で、AI人材の需要に供給が追いつかない状況も続いており、単純な人員入れ替えがうまく機能するかどうかは未知数だ。
Mistral AIのNPMパッケージが侵害 — サプライチェーンセキュリティーの課題浮上
フランスのAIスタートアップMistral AIのTypeScriptクライアント用NPMパッケージが侵害されたことが判明した。GitHubのIssueで報告されたこの事件は、AIツールのサプライチェーンセキュリティに対する懸念を改めて浮き彫りにした。
AI関連パッケージの利用が急増する中、依存関係の安全性をどう確保するかは開発者コミュニティ全体の課題となっている。
RobinhoodがAI投資ブームに乗り第2号ベンチャーファンドを準備
RobinhoodがAI関連投資ブームを背景に、2つ目のベンチャーファンドの設立を準備している。初期段階のスタートアップだけでなく、成長段階の企業にも投資する方針で、AI分野への投資意欲が個人投資家向けプラットフォームにも広がりを見せている。
まとめ
この日のAIニュースは、技術・安全・雇用の3つの軸で重要な動きがあった。Sutskeverの証言はAIガバナンス問題の核心を突き、Linuxの連続脆弱性はAIインフラの安全性に警鐘を鳴らし、GMのレイオフはAIシフトの社会的影響を象徴している。技術の進展と並んで、それを支えるインフラの安全と人材の移動が今後の重要テーマになりそうだ。