本質的なランダム性とそうでないもの
本質的にランダムな現象というのは実際には少ないと思う。
コイントスでもサイコロでもいい。表か裏かは1/2の確率。1の目がでる確率は1/6。コイントスを20回続けて、全部表だったとする。次は裏だろう、と予測しても、次に表が出る確率も裏が出る確率も1/2。これはランダムな現象の本質である。
が、これをランダムたらしめているものは、観測不可能な情報というものだ。手の上のコインの初期配置、手の動きとコインに与えられる力。これらが厳密に測定された場合、コイントスはただの力学の問題になるはずだ。だから、表か裏かは高い確度で予測可能なはずである。
でも、「実際のコイントス」をするときに、これらの情報が入手できることはありえない。絶対にありえないのだ。それをやっていたら、コイントスではないのである。
言いたいことは、決定論的に予測可能であっても観測不可能な情報がある場合は確率論的にふるまっているということだ。こういうものは本質的なランダム性があるわけではない。
こう考えると、実は本質的にランダムなものというのはほとんどないのではないだろうか。知人との雑談の中で、量子力学的な不確実性よりも上のスケールでのランダム性ってどこまであるのかが話題になったことがあるが、自然科学で扱える現象の場合、それはないはずだ。
なので、手に入るデータの示すランダム性は、情報が不充分であるからこそのランダム性なのである。
これはPharmacometricsをやっている人なら容易に理解できることだし、既に理解しているだろう。我々はプレーンなモデルに対して、共変量という、結果を予測しやすくする因子を選択して含めていく。体重とか腎機能とか。結果に影響をもたらしているだろう因子を。これらは観測可能な情報であって、臨床試験でも当然評価可能である。観測された情報を含めると、ランダム性は減るのだ。
しかし、完全に説明しきれるものではない。PKであったって、ある被験者の肝や腎の血流量、酵素の発現量などPKに由来するクリティカルな情報は評価されない。だから、観測されれば当然よりデータを説明できるだろうものが観測されてない分、個体間変動というランダム性を完全に除去することなどできはしない。
そういう意味で、随所で繰り返し主張されているように、モデルはもちろん正しくはないのである。
より困難なケースでは、何が観測されたらランダム性が下げられるのか、見当がつかない状況というものもありえる。PKよりはPDのほうが、決定的な因子が何であるのかを基礎科学の知見から見抜くことが難しい。
また、同じ理由で経済に関するモデルにおいてはPharmacometricsのモデルよりは難しいことが多い。
ランダム性をある一定以上に下げることは難しいし、そしてそれは現実的でもない。臨床試験で評価不能な因子を、無理に評価しようとするとそれは臨床試験という枠組みでできなくなるわけだ。コイントスと同じである。だから、一定のランダム性を常に覚悟する必要がある。
それでもモデルが有用なのは、そのランダム性が我慢できる程度であるときだ。つまりこのくらいの予測のズレは判断に影響を及ぼさない、と言えるときなのである。その文脈で、シミュレーションが重要なのである。
充分なモデルができても、そこからの予測が役に立たなくなる原因は2つある。1つは短期試験から長期試験のような外挿である。厳密にはモデルが役に立たないのではなく、手元にあるデータそのものに病態の自然経過による情報が含まれていないだけだ。だからこれは観測情報の議論になる。ここをうめようとしているのがDisease model。
もう1つは、臨床試験にエントリーする被験者が、違ったふるまいを示す場合である。モデルから外挿できる範囲を越えている。次にやった試験では、モデルを構築した試験の被験者では影響力がなかった因子が突如として強い影響を示すようになったとか。もしくは新たな影響要因が含まれるようになったとか。
ただ、これも実際はモデルの問題ではない。こういうことが起きないように、試験は毎回同じような患者層からエントリーするものなのだ。患者のPopulationは常にオーバーラップしていて、その外側の人たちは入ってくるもののメジャーではないというやり方になっているはずである。
統計モデルを構築することは、こういう観測不可能なランダム性を覚悟しつつ、そうでないランダム性を削れれば削っていくことである。
| 固定リンク
| コメント (0)
| トラックバック (0)
最近のコメント