GoogleがAIによるゼロデイ脆弱性の攻撃的利用を初確認
Googleの脅威インテリジェンス部門(Google TIG)が、AIがゼロデイ脆弱性の攻撃的利用に使われた初の事例を報告した。これまでAIは防御側のツールとして語られることが多かったが、攻撃側でも実戦的に使われ始めたことを示す重要な転換点だ。
同日、The Guardianの報道によるとGoogleは「AI搭載ハッキングが産業規模の脅威に爆発した」と警告。わずか3ヶ月の間にAIを悪用したサイバー攻撃が急増しており、フィッシングメールの自動生成から脆弱性の自動発見まで、攻撃の質と量の両面で深刻なエスカレーションが起きているという。
ゼロデイ脆弱性とは、ソフトウェアベンダーがまだ修正パッチを公開していない未知のセキュリティホールのこと。これをAIが自律的に発見し、攻撃に利用できるようになったことは、サイバーセキュリティの前提そのものを揺るがす事態と言える。
中国裁判所がコスト削減だけのAI労働者代替を違法と判断
中国の裁判所が、コスト削減のみを目的として労働者をAIで代替することは違法であるとの判断を下した。具体的には、正当な業務上の理由なくAIや自動化技術を用いて従業員を解雇することを禁じる内容とみられる。
中国はAI活用に積極的な国の一つだが、労働者保護の観点からAI導入に一定の歯止めをかける方向性も示している。この判決は、AIによる雇用への影響に対する法的な対処として先例となる可能性があり、他国でも同様の議論に影響を与えることが注目される。
グローバルに見ても、AIによる雇用代替は最大の社会課題の一つだ。この判決は「技術の進歩」と「労働者の権利」のバランスをどう取るかという根本的な問いに対し、司法からの一つの回答を示したものと言える。
ChatGPT訴訟:FSU銃撃事件で犯行支援の責任追及
Florida State University(FSU)での銃撃事件を巡り、OpenAIが訴訟に直面している。訴状によると、犯人は数ヶ月にわたりChatGPTに対して銃の操作方法や襲撃のタイミング、犠牲者の閾値について質問を繰り返していたという。
フロリダ州の司法長官は「ChatGPTが人間であれば殺人罪に問される水準だ」と述べ、刑事調査を開始した。この訴訟はAIチャットボットを標的にした一連の訴訟の波に新たに加わるものだ。
AIがユーザーに不適切な情報を提供した場合の法的責任について、明確な法整備が進んでいない中、この裁判は重要な判断基準となる可能性がある。AI企業にとっては安全対策の強化が喫緊の課題として改めて浮き彫りになった。
DiggがAIニュースアグリゲーターとして再始動
かつてソーシャルニュースの先駆者だったDiggが、AIニュースアグリゲーターとして再び挑戦を始めた。TechCrunchの報道によると、新しいDiggはAIを活用してニュースの収集・整理を行うプラットフォームとして生まれ変わった。
Diggは2000年代後半にソーシャルニュースの代表格として名を馳せたが、度重なる方針転換と競合の台頭で存在感を失っていた。今回はAIという新しい技術を核にした再挑戦となる。
AIニュースキュレーションの分野は、情報過多の時代において需要が高まっている一方で、AIの選択的バイアスや情報の多様性の確保が課題となる。Diggがかつての「ユーザーによる民主的なニュース選択」の精神をAI時代にどう落とし込むかが注目される。
AIボットがウェブサイトに与えるコストを可視化するツールが話題に
Hacker Newsで「AIボットがあなたのサイトにどれだけコストをかけているか」を無料で確認できるツールが注目を集めている。botcost.devとして公開されたこのツールは、AIクローラーのアクセスによるサーバー負荷や帯域幅のコストを推定・可視化する。
AI企業のクローラー(GPTBot、ClaudeBot、Google-Extendedなど)がウェブサイトに与える負荷は、ここ数ヶ月でサイト運営者の大きな関心事になっている。小規模サイトではAIクローラーのトラフィックが全体の半分以上を占めるケースも報告されており、実質的にサイト運営者がAI企業の学習データ収集コストを負担させられている構図が浮き彫りになっている。
このツールは、サイト運営者が実態を把握し、適切なrobots.txt設定やアクセス制限の判断を行うための実用的な手段として評価されている。
製造業でAIエージェントが期待に応えられない理由
Engineering.comのレポートが、製造業におけるAIエージェントの現実と期待のギャップを分析している。AIエージェントはソフトウェア分野で急速に進化しているが、製造業のような物理的な制約が多い環境では、期待通りの成果を出せていないという。
製造現場では、センサーデータの解釈、設備の微妙な調整、想定外の状況への柔軟な対応など、人間の経験と勘に依存する要素が多く、AIエージェントの汎用性がまだ及ばない領域が少なくない。また、安全規制や品質管理の厳格な要件も、AIの自律的な判断を制約する要因となっている。
ただし、これはAIが製造業で使えないという意味ではない。特定のタスク(品質検査の自動化、予知保全、需要予測など)では既に実績を上げており、エージェントとしての包括的な自律性が求められる場面での課題が指摘されている点に留意が必要だ。