TCフォーラム研究報告2026年9号

TCフォーラム研究報告2026年9号 石村耕治「税務調査対象選定AI透明化策の米日比較」
                                 2026年4月19日

税務調査対象選定に使うAI/アルゴリズム透明化策

アメリカと日本の現状を比べる

国税庁が開始する「オンライン税務調査」と透明化の課題

~ポスト対面調査時代の国通法改正、納税者権利憲章が要る!~

 

 石 村 耕 治
(TCフォーラム代表委員・白鷗大学名誉教授)

 

◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆

2026年9月から、国税庁におけるネットワークシステムであるKSK(国税総合管理システム)が、 次世代型の「KSK2」に移行する。KSK2では、3つの目標(柱)のもとデジタルの活用による「納税者の利便性の向上」 と「課税・徴収の効率化・高度化」を目指す(国税庁】「税務行政のデジタル・トランスフォーメーション -税務行政の将来像 2023-」 )。

これら3つの目標(柱)には、AI/アルゴリズム(人工知能/情報処理手順)を用いてデータ分析を行い、効率的な税務調査対象選定につなげるような開発コンセプトは明示されていない。言いかえると、「KSK2」は、「AI/アルゴリズムのシステム/モデル」とは表面的に関係がない。

しかし国税庁は、税務調査対象の選定から会計分析に至るまで、AI を活用した税務執行を急速に拡大している。とりわけ、課税処分に先立つ任意の税務調査については、従来の対面方式から、米マイクロソフト社のチームズ(Teams)などの配信ツールを用いたオンライン調査へと移行する方針を示している(石村耕治「国税庁が開始する『オンライン税務調査』とは」 TCフォーラム研究報告2026年1号(2026年1月)参照)。

このオンライン化の動きも、AI を中核とする国税庁の税務執行のデジタル化戦略の一環と位置づけられる。

このように、国税庁は、オンライン税務調査を含む税務執行のデジタル化戦略を加速化させている。

対岸の大国、アメリカ連邦の内国歳入庁(IRS=Internal Revenue Service)もデジタル化戦略を加速化させている。AI/アルゴリズムを使った税務調査対象自動選定システムを導入している。

しかし、日米両国には、その制度的位置づけ、公正性・透明性・説明責任、監査・検証手続、納税者の権利利益保護手続には本質的な違いがある。

日本とアメリカはいずれも、膨大な申告データを基に「調査対象の優先順位付け」を行うためのAI/アルゴリズムを使うシステムを導入している。

日本の国税庁は、SAT(個人)、結(法人)、RIN(資産税)といったシステムを「調査対象選定補助ツール」と位置づけて運用している。これらはあくまで補助であり、最終的に調査対象とするかどうかの判断は人間/人知が行うと説明されている。

これに対して、アメリカIRSは、DIF(Discriminant Function)、AI Agent、LPCM、LAR、ITMなど複数のモデル(システム)を組み合わせ、統計モデルから機械学習モデルまで多層的に活用している。IRSも最終判断は人間/人知が行うと明確に定めている。しかも、そのプロセスやモデルの役割を公開する姿勢が強く、選定手続の透明性を高めている点が特徴である。

日米とも調査対象選定の具体的基準は非公開である。しかし、アメリカでは IRS 内部統制に加え、連邦議会監視(Congress Oversight)、連邦政府検査院(GAO=Government Accountability Office)検査、連邦財務省の租税行政監察総監TIGTA( Inspector General for Tax Administration)監査、情報公開法(FOIA=Freedom of Information Act) 開示などの外部統制が存在し、選定システムの透明性、公正性と説明責任が確保されている。これに対し、日本にはこれらに相当する外部統制がほとんどなく、選定プロセスの検証・監視の仕組みも未整備である。「密室行政」志向が強く、税務調査対象自動選定システムのブラックボックス化が当然視されている。こうした状況は、日本の税務行政のデジタル化におけるガバナンス上の弱点を露呈させている。

*              *              *

破壊的イノベーション(disruptive innovation)は勢いを増し、とどまるところを知らない。課税庁事務のAI化を支えるモデルやシステムも日々高度化している。AIに降参するのではなく、人間/人知によるAIの統制とガバナンス確保はますます重要になってきている。

AI/アルゴリズムを用いた課税庁事務の自動化において、透明性・公正性・説明責任を制度的に確保することは、納税者の権利利益を護るために不可欠である。

日本のSAT・結・RINのような税務調査対象選定AIモデル/システムは、税務調査の効率化を一方的かつ著しく優先している。そのため、納税者の権利利益保護が背後に追いやられている。システムの透明性は確保されていない。公正性の検証手続も存在しない。説明責任も制度として担保されていない。

一方、アメリカIRSが導入する税務調査対象選定AIモデル/システムについては、内部統制に加え外部統制も整備されている。すなわち、IRS内部統制に加え、議会が監視する。政府検査院(GAO)が監査する。財務省監督総監(TIGTA)も監査する。情報公開法(FOIA)で一定の情報が開示される。

任意の行政調査は、税務に限らず、公衆衛生、労働、警察など多様な分野にわたる。それにもかかわらず、税務調査の対象を自動選定するAIモデル/システムだけが、他の行政分野に先んじて厳格な規律を必要とするのは、なぜなのだろうか。それは、このAIモデル/システムが「ハイインパクトAI」【納税者の権利利益などに対する高度のリスクが伴うAI】に分類されるのにもかかわらず、任意の税務調査という性格上極めて多くの人々に直接影響を及ぼすためである。原則としてすべての納税者に確定申告を義務づけるアメリカの申告納税制度では、とりわけである。

税務調査対象自動選定AIモデル/システムを、納税者の権利利益の尊重という観点から見ると、日米間の制度的格差は大きい。日本の制度は、透明性・公正性・説明責任の確保という基本的要請に照らして明らかに見劣りする。

アメリカに倣い、税務調査対象自動選定AIモデル/システム「ハイインパクトAI」【納税者の権利利益などに対する高度のリスクが伴うAI】として取り扱い、その透明性・公正性・説明責任の強化と法制度化は急務である。

税務調査対象選定にかかわるアルゴリズムが非公開/不透明だと、納税者は課税庁による自己の納税データの取扱い適切なのかを判断するのは難しい。自動判断にたいする不服申立ても難しくなる。結果として、被調査者の自己情報コントロール権が損なわれる。

*                   *              *

IRSは、2026年2月10日に、「AIガバナンス・ポリシー」[IRM 10.24.1:IRS Policy for Artificial Intelligence (AI) Governance]を公表した。

このポリシーは、わが国の国税庁が運用するAI/アルゴリズムを使った各種税務調査対象選定システムの透明性・公正性・説明責任、納税者の権利利益保護手続を検証し、刷新するうえで重要な示唆を与える。

そこで、本報告では、同ポリシーの要点を整理し、簡潔に分析・紹介する。とりわけ、IRS AI ガバナンス・ポリシーと「納税者権利憲章法/納税者としてのあなたの権利」との関係も点検した。

IRS AI ガバナンス・ポリシー[IRM 10.24.1.9]により、IRS 職員は、AI を利用する場合でも、納税者の権利を理解し、それに従って行動しなければならない。つまり、AI が判断したからといって、職員の説明責任・監督義務が免除されることはない。

*              *                   *

国税通則法(例えば74条の2)や最高裁判例(最決昭48.7.10・刑集27巻7号1205頁)によると、課税処分のための任意の税務調査は「客観的に必要とある場合に限り」認められる。AI が関与した税務対象選定の自動判断でも、「客観的必要性」はあったのかどうかが問われる。AIが行った税務対象選定の自動判断でも、人間/人知(human oversight/human-in-the-loop)による最終判断が下されることになっている。このことから、被調査者は通常の不服申立手続でAI/アルゴリズムの公正性ないし「AIバイアス(AI/アルゴリズム由来の偏り(かたより)」があるかどうか争訟で問えて当り前である。アメリカIRS AI ガバナンス・ポリシーでは、その旨を確認している。わが国も、アメリカに倣って、その旨を法認する必要がある。

本報告では、「国税通則法改正(AI/アルゴリズム規律の新設)案」(仮案)を提案する。本法案は、AI等の定義を明確化し、税務調査対象自動選定手続の透明性、公正性、説明責任並びに内部及び外部統制を制度として確立することにより、AIが行った税務対象選定の自動判断の争点化を含む納税者の権利保護と行政の信頼性を高めることを目的とするものである。

◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆◇◆