障害物を避けることは効率化の基本だと思うのだが、臨床研究にも障害物があり、障害物まみれの「ヤバそうなプロジェクト」をトピック選びの時点で察知することはかなり重要なスキルだと思う。
そして臨床研究が破綻・泥沼化しうる落とし穴はいくらでもある。僕もハマりまくったし、失速して風化していくプロジェクトもたくさん見た。
そのような惨事をどれだけ事前に防ぐことができるか、または深入りする前にプロジェクトを切る英断を下すことができるかはPIや研究者の能力の一つだと思う。
「ヤバいプロジェクト」は時間を無駄にするし、チームのモチベーションが下がることや変なプロジェクトにコラボレーターや学生を引きずり込んでしまうと信用問題になり今後のコラボに影響する、等の副次的なものもあるのではないか。
なのでトピック選びをする際にはある程度、リスクヘッジの観点が加わると良い気がする。今回はよくある落とし穴の認知について書く。
よくある落とし穴:
- データベースがない
- それっぽいデータベースはあるけど重要な変数がない
- 全く同じトピックをベターにやった論文がある
- サンプル数が少なすぎる→Part 2 でやります
データベースがない
本来なら「あ、データないね」で終わるはずの単純な問題なのだが、データがないのにやりたいスタディーのアイデアを実写版ジャイアンに持ってこられまくって大変なことがあった。
追求したい理想のリサーチクエスチョンを既存のデータと摺り合わせて落とし所を探るプロセスは不可避だと思うので、リサーチクエスチョンを検証するのに必要なデータと入手可能なデータが両方頭に入っていないと、上記の僕のようにこのステップをジャイアンと堂々巡りする羽目になる。
研究チーム構成についての記事でも少し触れたが、既存のデータをある程度把握している人物はキーパーソンだと思う。この感じのスタディーがやりたければこのデータベースに必要な患者数と変数が記録されている、というカタログ的な役割。更にこの人に臨床知識やスタディーデザインの技術があれば追求できるスタディーの幅と質がぐんと増えるのではないかと思う。
ただ、既存データと一概に言っても幅広すぎるので、ある程度使うデータが決まっている分野やトピック、というフレーム内のエキスパートだが、この役割を担う人がいるだけでプロジェクトの取捨選択がかなりスムーズに進むと思う。
データベースは無いけど電カルからデータを集めれば作れるよ、という場合はより一層の注意が必要。データベース構築は膨大な時間を要するので、データの定義や採取にかかる労力とそのデータから得られる(と予想される)研究結果の価値を天秤にかけて厳しく事前評価しなければいけない。
このデータベース頑張れば作れるからやってみよう、程度のノリでデータベース構築に手を出すのはリスキーだと思う。そして、研究目的なしにただ、あと後ペーパー書けそうだからデータベース作っとこう、というアプローチもかなり危険。変数などデータベースのデザインがプロジェクトの観点から整理されていないため、先にデータベースを闇雲に作って(3回くらいやった)上手くペーパーにつながった覚えがない。
僕は最近は納得のいくレベルのデータ定義や採取、missing data の許容度などに考えを巡らせると前に進めなくなってしまうので自分でデータ定義から始めないといけないスタディーにはあまり手を出せずにいる。
それっぽいデータがあるけど重要な変数がない
これは手が出そうな分、単にデータベースが存在しない場合より質が悪いかもしれない。
例えば、心臓外科のリサーチでよく使うSociety of Thoracic Surgeons (STS)という学会が管理している心臓外科手術に特化された数百の変数が記録されているレジストリーがある。データの定義もしっかりしているので自施設のデータを使って研究しているグループは多い。
ただ生存や再入院が術後30日以内までしか記録されていないので、例えばバイパス手術の結果に焦点を当てたい場合は長期成績が重要なのでこのデータベースのみではあまり意味のある結果が得られない。
「じゃあ長期データ集めればいいじゃん」ということなのだがこれが意外と難しい。生存データは何通りか方法があるのだが長期の生存はトピックとしてやり尽くされている。
再入院・再手術は自施設内で行われたものでないと電カルに記録されていないし、患者や家族に連絡して再入院の有無を確認した場合、手術からこの確認のインターバルが一定でないといけないし、ほぼ確実にリコールバイアスについてレビューでツッコまれる。
再手術の有無を忘れることはそうないだろうが、手術の日付や悪い場合だと年までが曖昧な場合が結構あるし、この方法ではアテにならない、という論文も数多く存在する。
なので頑張って何百、何千人という患者にコンタクトしたとしても得られたデータが使い物にならない、というリスクがある。
そしてそれだけの労力に見合うデータかというと既存のスタディーと照らし合わせてもかなり疑問が残る。
基本的に、後ろ向きのデータ集めを行う場合は常にこう言ったリスクが付き纏うと思うので、「できそうだから」という理由のみで追求するのは危険だと思う。かなり勝算があるものを更に吟味した上で追求したら良いのでは。
同じトピックをベターにやった論文がある
インパクトの高いスタディーを再現性評価の目的から模倣する、というアプローチはメソッドが伴っていれば全然アリだと思うが、似たようなことやってみようという軽いノリで手を出すと行き詰まりやすい気がする。
もちろん既存のスタディーの上をいく要素が何かあればいいのだが、自分のスタディーよりもレベルが高いものが既に存在しているのに、今更質や量で劣るデータを使って似たようなリサーチクエスチョンを追求するのはリスキーだと思う。
これは僕が昔ジャイアンにこの手のトピックをたくさん投げられて色々葛藤した末の結論なので人それぞれだと思うのだが、
まずsignificance を議論するのに苦労する。重箱の隅をつつけば必ず何か見つかるのだが、例えば仮に他の全てのパラメータが同じだとして、multi-center のスタディーが既にある状況で同じ地域や国でsingle-center のスタディーを行う意味って多分そんなに無い。
受け入れてくれるジャーナルはあるかもしれないが、自分でただの模倣スタディーと思いながらモチベーションを保つのはなかなか辛いし、最初から低めジャーナル狙いのペーパーを書いて上手くいった試しがあまり無い。
なので、真似るのは割と簡単かもしれないが、既存スタディーにもう一味加えられない場合はハイリスクだと思って臨むと良いのではないだろうか。
まとめ
研究トピック選びにもフェーズがある気がする。例えば僕は、学生の頃はとにかく自分の周りにあったものを片っ端からやっていたが、ちょっと解析ができるようになってからはもう少し取捨選択するようになった。今は結構先まで見通しがつくものでは無いと手を出さないようになってきていると思う。
いずれにせよリスクヘッジの観点が加わるとトピック選びに深みが増すような気がする。ただ、なんでもがむしゃらにやっていた頃の経験も無駄ではないと思う。
Part 2 へ進む
2 thoughts on “リスクヘッジの研究トピック選び: Part 1”