AIが大臣は本当?アルバニアの仮想閣僚「Diella」導入の狙いと課題
「AIが大臣になった」というニュースは、とても目を引く表現です。
ただ、実際に起きていることを落ち着いて整理すると、国のお金の使い方を、より正しく、分かりやすくしたいという行政改革の一環だと分かります。
アルバニアでは、AIのデジタル存在「Diella(ディエラ)」を“閣僚級”として位置づけ、特に公共調達の分野で活用する方針が示されました。
本記事では、「AIが大臣」とはどういう意味なのか、なぜ導入されたのか、そしてどんな課題があるのかを、順を追って整理します。
AIが大臣は本当?—Diellaの位置づけと“何が起きたか”
いつ・誰が・何を発表したのか(2025年9月、首相発表/仮想の閣僚級ポスト)
報道によれば、2025年9月にアルバニアのエディ・ラマ首相が、AI生成のボット「Diella」を新内閣の“仮想の閣僚級”として位置づけ、公共調達を中心とする政府手続きの透明化に使う方針を示しました。
その後、議会でも「AIの“政府の大臣”」として紹介され、象徴性の強い演出も含めて国際的に注目されました。
Diellaの担当領域:公共調達(政府契約の入札・テンダー)を主軸に透明化を狙う
Diellaが主に関わるとされたのは、公共調達です。
公共調達とは、国や役所が道路工事やシステム開発などを行う際に、どの会社に仕事をお願いするかを決める仕組みです。
多くのお金が動くため、不正や横領が起きやすい分野として知られています。(The Guardian)
もともとの出自:e-Albania(電子行政)上の仮想アシスタントから拡張
Diellaは、突然「大臣」として生まれたわけではありません。
アルバニアの電子行政プラットフォーム「e-Albania」の仮想アシスタントとして2025年1月に登場し、行政手続きの案内やオンラインサービス利用支援をしてきた存在を拡張する形です。
“大臣”の意味合い(象徴か、権限委譲か)と報道上の論点整理
注意したいのは、「AIが法的に閣僚と同等の権限を持ち、単独で意思決定する」ことを直ちに意味しない点です。
実務としては、契約文書の作成補助やテンダー書類の確認など、人の監督(オーバーサイト)を前提にした限定的な関与として説明されることもあります。(TIME)
一方、野党側は合憲性などを争点化しており、「“AI大臣”という言い方が先行しているのではないか」という論点も併走しています。(Reuters)
導入の狙い—公共調達と不正防止のため
なぜAIが必要だと考えられたのか
政府側が示している理由は、比較的はっきりしています。
お金を横領したり、不正に関わったりする人が出てしまう現実があるため、人の判断だけに頼らない仕組みを作りたい、という問題意識です。
AIに期待されている役割
Diellaに期待されているのは、「えらい判断をすること」よりも、次のような役割です。
- 決め方をそろえる
- 手順を分かりやすくする
- 記録を残して、あとから見直せるようにする
これにより、「こっそり変える」「人によって結果が違う」といった事態を減らすことが狙われています。
行政を近代化するという意味合い
この取り組みは、AIを使った行政のデジタル化(行政DX)の一部でもあります。
人が紙で処理していた作業を、デジタルとAIで整理し直すことで、仕事のやり方そのものを変えようとしています。
課題① ガバナンス—だれが責任を持つのか
AIが関わった判断の責任はだれのものか
公共調達では、「なぜ選ばれなかったのか」と不満が出ることがあります。
そのときに大切なのは、最終的にだれが責任を持つのかです。
AIが関わっていても、説明や対応をするのは人間である必要があります。
人はどこで関わるのか
すべてをAIに任せるのか、それとも途中や最後で人が確認するのかです。
この線引きがはっきりしていないと、「AIのせい」「人のせい」と責任があいまいになります。
あとから確認できる仕組み
AIを使う場合でも、
- どんなルールで
- どんな情報を見て
- どんな理由で判断したのか
を記録として残すことが欠かせません。
これが、信頼につながる基本になります。
課題② 法・運用・技術—現実的な注意点
法律との関係
国の制度では、重要な判断は人が行うことを前提に作られている場合が多くあります。
そのため、AIを「閣僚級」と呼ぶこと自体が、法律上どう整理されるのかは、今後の課題です。
AIの判断は完璧ではない
AIは、与えられたデータをもとに判断します。
もしデータが古かったり、偏っていたりすると、結果もかたよります。
そのため、AIを使っても、人による見直しや改善は必要です。
評価基準の“攻略”や入力改ざんが起きる可能性がある
AIを使うことで、逆に「AIに気に入られる書き方」を考える人が出る可能性もあります。
たとえば、入札書類をAI向けにうまく整えて高く見せたり、AIの判断をゆがめるような文を混ぜたりするやり方です。
さらに、AIが見る情報やルールは人が用意するため、ここが悪用される心配もあります。
もし担当者が、間違った情報や、特定の相手に都合のよい条件を入れてしまうと、AIはそれを前提に判断します。
その結果、「AIが決めたように見える」形で不正が通ってしまい、あとから気づきにくくなる可能性があります。
こうしたリスクを減らすには、AIの結果だけを見るのではなく、AIに入れた情報や条件が、いつ・だれによって作られ、変えられたのかを記録し、複数人で確認できる仕組みを用意することが重要です。
企業のAI活用でも起こる「入力の支配」リスクと実務チェック
公共調達に限らず、企業がAIを使って審査・評価・選定を行う場面でも、同じ落とし穴があります。
それは、AIの出力より前にある「入力(データ・条件・ルール)」を、人が握っている点です。
ここに誤りや恣意性が入ると、AIはその前提のまま結論を出してしまい、結果として「AIが判断した」という形で、説明しにくい判断が通ってしまう可能性があります。
そのため企業側では、AI導入時に次のような運用を最低限そろえておくことが重要です。
- 学習・参照データの出どころ(作成者・更新者)と変更履歴を残す
- 評価ルールや重み付けの変更は承認制にする
- AIの出力だけで決裁せず、根拠(ログ・参照情報)を確認する
- 異議が出た場合の再評価手順を決めておく
- 外部入力は無害化・分離して処理する
こうした管理がないと、効率化のためのAIが、逆に「責任の所在が曖昧」「監査に耐えない」「コンプラ上の説明ができない」という形でリスクになります。
AIを使うほど、前段の入力と変更管理を固める必要があります。
まとめ
アルバニアのDiellaは、「AIが国を動かす」という話ではありません。
お金の使い方で不正が起きにくい仕組みを作るために、AIを目立つ役割で使おうとしている取り組みです。
一方で、責任の持ち方や法律との関係、AIの使い方には課題も残っています。
この事例は、AIを行政で使うときに「何を決めておく必要があるのか」を考えるための、分かりやすいケースと言えるでしょう。


