- なま
- ばりかた
- かた
- ふつう
- やわ
の5段階となっている。(当店の麺は生でも食べられる良質の麺を使用しています、との但し書きあり)
この麺の硬さという変数は、順序尺度 (ordinal scale)上の変数である。また、見かけ上は「離散変数」のようだ。
私はいつも「ばりかた」を注文する。そしてときに、替え玉(麺だけのおかわり)を注文するが、それもやはり「ばりかた」である。
ところが、最初にラーメンとして注文したときの「ばりかた」よりも、あとから替え玉として注文したときの「ばりかた」のほうが、どうもいくらか硬い傾向があるようだ。
これがなぜかは不明である。まだ「替え玉のほうが硬いみたいだけど....」と大将に言ってみる勇気はでない。
しかしなんらかの原因で、おなじ「ばりかた」でも微妙に硬さが違う、ということは事実である。
これはばりかただけでなく、「かた」でも「ふつう」でも「やわ」でも同じ現象が起こる可能性はある。
つまり、この店では「なま」から「やわ」までを、5段階の「離散変数」discrete variableであるかのような書き方をしているが、実は、麺の硬さというのは離散変数ではなく、連続変数 continuous variable であるのだ。
考えてみれば当たり前である。最初の生の状態をゼロとして、沸騰した湯で茹でる時間を次のように連続的に変化させることは可能だ。
1秒
2秒
3秒
:
33秒
34秒
:
1分24秒
:
便宜的に1秒間隔で表示したが、これを100分の1秒とか1000分の1秒間隔とか、限りなく間隔を狭くすることは、少なくとも理論上は可能である。それに応じて、茹で上がった麺の硬さも、連続的に変化することになる。
つまり、本来、茹で加減に応じた麺の硬さは連続変数であるのだが、それを、5段階の明らかに違う湯で時間を使用することで、あたかも離散変数であるかのように扱っているのである。
英語能力や熟達度も間隔尺度上の連続変数であろう。ラッシュモデル (Rasch model)でもそのように扱っている。
一方、最近耳にすることの多い NTT (Neural Test Theory)では、学力を離散変数として扱おうとしているようである。
む.....どうなんでしょうねぇ。