AIはどこまで任せていいのか──政府の新ガイドライン案を読む

AIは今、「答えを出す」だけでなく、「行動する」ようになっている。

メールを送り、ファイルを整理し、商品を注文し、ロボットを動かす。そうした「自律的に動くAI」が企業の現場に広がりつつある中、政府は3月12日、AI事業者向けの新しいガイドラインの案を示した。総務省と経済産業省が共同でまとめたもので、今月中に正式に取りまとめる方針だ。

その核心にあるのは、一言でいえば「AIに任せっきりにするな」という要請だ。


table of contents

「チャットAI」から「行動するAI」へ

まず、今回のガイドラインが対象とする「AI」が、これまでのものとどう違うかを押さえておく必要がある。

多くの人が使い慣れている生成AIは、質問に答えたり、文章を作ったりするものだ。基本的に「人が聞く→AIが答える」という構造で、最終的な判断や行動は人間が担う。

これに対し、今回のガイドラインが問題視しているのは「AIエージェント」と「フィジカルAI」と呼ばれるタイプだ。

AIエージェントとは、人間が細かく指示しなくても、複数の手順を自分で組み立てて実行するAIのことだ。たとえば「来週の出張の手配をして」と指示すると、スケジュールを確認し、交通機関を検索し、ホテルを予約し、上司に報告メールを送る──そこまで自動で進める仕組みが、現実味を帯びつつある。

フィジカルAIは、工場のロボット、自動車、産業機械など、現実世界で動く機器にAIが組み込まれるケースを指す。こちらは文章の間違いとは違い、判断ミスが人身事故や設備損傷につながりうる。


AIが「勝手に動く」リスク

便利さの一方で、こうしたAIには固有のリスクがある。

ガイドライン案が挙げる具体例はわかりやすい。AIが誤った判断をして「ファイルを勝手に削除する」、あるいはサイバー攻撃によってAIの動作が不正に操作され、「機密情報が外部に流出する」といったケースだ。

チャットAIなら、誤った回答を人間が見て「おかしい」と気づくことができる。しかし行動するAIは、気づいた時点では、すでに実行が終わっている可能性がある。注文がすでに送信されていたり、メールがすでに届いていたり、ロボットがすでに動き出していたりする。

そこに問題の本質がある。AIの「能力」が上がれば上がるほど、人間が介在しなかったときのミスや被害も大きくなる、という構造だ。


ガイドラインが求める「人間がループの中にいる」設計

今回のガイドライン案が事業者に求めているのは、大きく2つだ。

ひとつは、重要な判断の場面では人間が関わる仕組みを導入することだ。

専門的には「Human in the Loop(ヒューマン・イン・ザ・ループ)」と呼ばれる考え方で、AIに完全自動で任せるのではなく、設計の中に人間の確認・許可を組み込むというものだ。報道ではたとえば、高額決済の前には本人の同意を取る、重要な経営判断の前には管理者が確認する、危険を伴うロボットの動作の前には人間が許可を出す、といった対応が想定されている。

もうひとつは、AIが扱うデータや権限を必要最小限に絞ることだ。

たとえば、あるAIに「社内ファイルの閲覧」「メール送信」「外部サービスへの決済」まで一括で許可してしまうと、誤作動でも攻撃でも被害の範囲が広がる。だから、そのAIが本当に必要とする権限だけを与える、外部との連携先を管理する、AIが読み込むデータを絞る、という対策が求められる。


企業現場への影響──身近な業務から始まる

このガイドラインが影響を与えそうな現場は、特殊な業種だけではない。

社内文書の整理・要約、経費精算の自動処理、購買発注のサポート、工場ロボットの操作補助など、すでに多くの企業で試験導入が進んでいる業務が対象になりうる。こうした用途でAIを活用する場合にも、「どの判断を人間に残すか」「どこまでのアクセス権を与えるか」を設計段階で整理しておくことが、今後は当然の前提として求められていく可能性がある。


「AI活用を止めろ」ではなく「設計に責任を持て」

ここで注意したいのは、今回のガイドラインは「AIを使ってはいけない」という内容ではない、という点だ。

政府は、AIエージェントやフィジカルAIには「業務の効率化や人手不足を補うメリットがある」と明確に認めている。推進しながら、リスクをコントロールする仕組みを整える──これが今回の立場だ。

また、このガイドラインは法律ではなく、守らなかったとしても直接の罰則はない。ただし、企業の社内規則や監査項目に反映される可能性がある。


「使うかどうか」から「どこまで任せるか」へ

今回のガイドライン案が持つ意味は、単なる注意喚起にとどまらない可能性がある。

これまで企業のAI導入の議論は、「使うかどうか」「コストに見合うか」が中心だった。しかし今回の動きは、その議論がすでに次の段階に進んでいることを示している。つまり「どこまでの権限を、どんな条件でAIに渡すか」という設計の問題だ。

総務省と経済産業省の公式資料を見ると、今回の改定は2024年以降に積み重ねてきたAIガバナンスの議論の延長線上にあり、AIエージェントやフィジカルAIという「行動するAI」がいよいよ政策対象の中心に入ってきたことを示していると読める。AIが社内システムや現実の機器と連携し、より広い範囲で行動するようになる中で、人間側がどう関与の仕組みを保つか──この問いは、今後ますます現場に突きつけられることになりそうだ。


(本稿は各種公開情報をもとに作成しました。一部数値は記事掲載時点の情報です)

Please share it if you like!

Person who wrote this article

CFP®/Level 1 Financial Planning Technician
Certified by the Japan Securities Analysts Association
・Primary Private Banker
・Asset Formation Consultant
Certified by the Financial and Financial Situation Study Group
・NISA Trading Advisor

table of contents