真面目なブログは http://repose.hatenadiary.jp

BRODY (ブロディ) 2018年6月号

BRODY (ブロディ) 2018年6月号

FLASHスペシャルグラビアBEST 2018GW号 (FLASH増刊)

FLASHスペシャルグラビアBEST 2018GW号 (FLASH増刊)

FLASH (フラッシュ) 2018年 5/8・5/15合併号

FLASH (フラッシュ) 2018年 5/8・5/15合併号

SPA!(スパ!) 2018年 5/1・8 合併号 [雑誌]

SPA!(スパ!) 2018年 5/1・8 合併号 [雑誌]

20th 「シンクロニシティ」の好きなところ

「深層学習は最強」「深層学習を使わない人間は老害」「老害はすぐに昔の手法を使えと言い出す」「老害は死ね」という意見が大半を占めるようなタイムラインになっていて,そのようなタイムラインになったのは自分が悪いという話はあるのだけど,とはいえここ三年ぐらいは自分の領域において深層学習によってブレイクスルーは起こるのだろうかということを考えながら様々な案件で実験を行ってきた.

今のところ,自分の領域では深層学習はほとんどの場合うまく働かないという結論に至っている.領域の論文を読んでもそこまで強く差が出ているわけではなく,より強いベースラインには負けてしまうのではないか,という気持ちがある.これはデータ量の問題ではなく,タスク,というより領域そのものの問題であるように思う.

自分は深層学習に対して「入力と出力の関係が人間の目で見れば確かなものであれば非常に高い精度が出るのではないか」と考えている.言語や画像はその最たる例で,人間が持っている文法への知識や理解,画像を見た時に得られる認識をいかにデータを用いて関数で表現するかというタスクにおいて深層学習が効果を発揮しているのではないかと思っている.

しかし自分の領域は入力と出力の関係が人が見ても理解可能ではなく,「どうしてそのような値になるのかがわからない」ということが多い.よって,そのようなあやふやな関係は深層学習を用いてもうまく推定できない,むしろ失敗してしまうのではないかと思う.

いつも新たなタスクを見てはニューラルネットワークの最新論文の手法を試しては思ったような精度が出ず,LightGBM あたりの方が良かった,とがっかりしている (余談だけど LightGBM を用いてパラメータのグリッドサーチをしていると Segmantation Fault が発生することがよくあり結構困っている).

いつか深層学習で精度が出るタスクに出会い,深層学習の素晴らしさを実感したい.