アラカン"BOKU"のITな日常

文系システムエンジニアの”BOKU”が勉強したこと、経験したこと、日々思うことを書いてます。

はてなブログの見たままモードで数式を書けるMathJax.js/困った!なぜか表示できないギリシャ文字があるぞ!

はてなブログの見たままモードで数式をかくのを実現してくれる、「MathJax.js」の使い方、書き方について、基本的なことを整理してみました。

arakan-pgm-ai.hatenablog.com

 

それで、ちょっと応用をやってみようと思いました。

 

本当は機械学習の本の数式をまとめるつもりだったのに・・

 

本当は、この本に掲載されている数式を参考にMathJaxで再現できるかためそうと思ったのです。

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

 

 

 

こんな感じで・・。

種類 書き方 表示例
シグモイド関数 h(x) = \frac{1}{1+exp(-x)} $$\Large h(x) = \frac{1}{1+exp(-x)}$$
ReLU \Large h(x)=\cases{x & \((x\gt0)\) \cr0 & \((x\leqq0)\)} $$\Large h(x)=\cases{x & \((x\gt0)\) \cr0 & \((x\leqq0)\)}$$
ソフトマックス関数 y_k=\frac{exp(a_k)}{\sum_{i=1}^n exp(a_i)} $$\Large y_k=\frac{exp(a_k)}{\sum_{i=1}^n exp(a_i)}$$
2乗和誤差(損失関数) E=\frac 1 2\sum_{k} (y_k - t_k)^2 $$\Large E=\frac 1 2\sum_{k} (y_k - t_k)^2$$
交差エントロピー誤差 E=-\sum_{k} t_k \log y_k $$\Large E=-\sum_{k} t_k \log y_k$$
ミニバッチ学習 E=-\frac 1 N \sum_{n}\sum_{k} t_{nk} \log y_{nk} $$\Large E=-\frac 1 N \sum_{n}\sum_{k} t_{nk} \log y_{nk}$$

 

この辺までは順調だったんですけどね。

 

問題が発生しました。

 

MathJax.js の不思議な動きに気がついた

 

どうも、表示できないギリシャ文字があるのです。

 

他のサイト(例えば、こちらのサイト・・便利です)では表示されているので、できないわけがないと考えて、色々、調べてみましたが、未だによくわかりません。

 

が、英語サイトで、同じ質問を投げている人がいて、どうも未だに解決していないっぽいのを見て、ちょっと今は無理かもしれないと考えてます。

 

ということで、次善の策として、表示されるものとされないものを把握だけしておこうと思って、書き出してみました。

 

とりあえず、この表で正しく表示されていないのは、今のところ無理っぽいです。

 

回避策が見つかったら適用していくつもりなので、全部表示できるように、いつかはなるつもりではありますけど・・いつになるやら。

書式 ここに正しく表示されていないものはアウトです。
\alpha $$\alpha$$
\Alpha $$\Alpha$$
\backepsilon $$\backepsilon$$
\beta $$\beta$$
\Beta $$\Beta$$
\Delta $$\Delta$$
\delta $$\delta$$
\epsilon $$\epsilon$$
\Epsilon $$\Epsilon$$
\eta $$\eta$$
\Eta $$\Eta$$
\Gamma $$\Gamma$$
\gamma $$\gamma$$
\kappa $$\kappa$$
\Kappa $$\Kappa$$
\Lambda $$\Lambda$$
\lambda $$\lambda$$
\mu $$\mu$$
\Mu $$\Mu$$
\nu $$\nu$$
\Nu $$\Nu$$
\Omega $$\Omega$$
\omega $$\omega$$
\omicron $$\omicron$$
\Omicron $$\Omicron$$
\Phi $$\Phi$$
\phi $$\phi$$
\Pi $$\Pi$$
\pi $$\pi$$
\Psi $$\Psi$$
\psi $$\psi$$
\Sigma $$\Sigma$$
\sigma $$\sigma$$
\sum $$\sum$$
\tau $$\tau$$
\Tau $$\Tau$$
\Theta $$\Theta$$
\theta $$\theta$$
\varDelta $$\varDelta$$
\varepsilon $$\varepsilon$$
\varGamma $$\varGamma$$
\varinjlim $$\varinjlim$$
\varkappa $$\varkappa$$
\varLambda $$\varLambda$$
\varliminf $$\varliminf$$
\varlimsup $$\varlimsup$$
\varnothing $$\varnothing$$
\varOmega $$\varOmega$$
\varphi $$\varphi$$
\varPhi $$\varPhi$$
\varpi $$\varpi$$
\varPi $$\varPi$$
\varprojlim $$\varprojlim$$
\varpropto $$\varpropto$$
\varPsi $$\varPsi$$
\varrho $$\varrho$$
\varsigma $$\varsigma$$
\varSigma $$\varSigma$$
\varsubsetneq $$\varsubsetneq$$
\varsubsetneqq $$\varsubsetneqq$$
\varsupsetneq $$\varsupsetneq$$
\varsupsetneqq $$\varsupsetneqq$$
\vartheta $$\vartheta$$
\varTheta $$\varTheta$$
\vartriangle $$\vartriangle$$
\vartriangleleft $$\vartriangleleft$$
\vartriangleright $$\vartriangleright$$
\varUpsilon $$\varUpsilon$$
\varXi $$\varXi$$
\Xi $$\Xi$$
\xi $$\xi$$
\zeta $$\zeta$$
\Zeta $$\Zeta$$