あざらしの日常

あざらしが腹を叩く片手間で書いたメモ

実対数閾値の定義に使われているゼータ関数はなぜゼータ関数と呼ばれているのか

実対数閾値の発表をするとたまにタイトルのことを聞かれることがあるのでそれについてのメモです。

モデルの分布を\displaystyle p(x|\theta)、真の分布を\displaystyle q(x)とした時、その間のKullback-Leibler divergence \displaystyle K(\theta)
\displaystyle K(\theta) := \int q(x) \frac{q(x)}{p(x|\theta)} dx
と定義されます。

ここで特異学習理論においてゼータ関数は、事前分布 \displaystyle \varphi(\theta)\displaystyle z \in \mathbb{C}に対して、
\displaystyle \zeta(z) := \int K(\theta)^z \varphi(\theta) d\theta
と定義されます。

このゼータ関数の最も0に近い極の符号を反転させたものを実対数閾値 (real log canonical threshold)や学習係数 (learning coefficient)などと呼ばれていて、特異学習理論においては重要な役割を果たしています。

さて、上記の関数はなぜ「ゼータ関数」と呼ばれているのでしょうか。我々のよく知っているリーマンゼータ関数
\displaystyle \zeta(s) := \sum_{n=1}^{\infty} \frac{1}{n^s}
という形をしていて、全く違うように見えます。

もちろんリーマンゼータ関数は色々な表現方法があり、たとえば
\displaystyle \zeta(s) = \int_{0}^{\infty} x^s \frac{1}{\Gamma(s)x(e^x - 1)} dx
と書けば、少し近い形にはなりますがこの表現が元でゼータ関数と名付けられたとは考えにくい。

話がいきなり飛んで答えに近づきますが、1954年にGelfandが次のような予想をしました:
For \displaystyle s \in \mathbb{C} and \displaystyle f \in \mathbb{R}[x_1,...,x_n], given a test function \displaystyle \Psi , the analytic map on \displaystyle \{s \in \mathbb{C} | Re(s)>0 \} ,
\displaystyle s \mapsto \int_{\mathbb{R}^n} |f(x)|^s \Psi(x) dx
has a meromorphic continuation to \displaystyle \mathbb{C}.

この問題に対して、AtiyahそしてBernstein-Gelfandがそれぞれ特異点解消定理を用いて証明を与えました。さらに後にBernsteinが前回記事でも名前を触れたD加群によって、特異点解消定理を用いない証明を与えました。

また、これと似たものでIgusaによりp進数版のゼータ関数
\displaystyle Z_f(s) := \int_{\mathbb{Z}_p^n} |f(x)|_p^s dx
も作られ、ある方程式のmod \displaystyle p^k の解の数の母関数と見ることができるようだ。詳しくはIgusa先生の解説記事[1]が日本語で無料で手に入るのでそちらを読みましょう。

今日このタイプの関数は局所ゼータ関数、井草ゼータ関数、Gelfandゼータ関数と呼ばれており、学習理論で使われているものもこのタイプのゼータ関数です。

参考文献
[1] 井草凖一(1994), 局所ゼータ関数について, 数学 vol.46, No.1 ,23-38.