Michael Nielsen著のオンライン書籍「ニューラルネットワークと深層学習」の翻訳に参加しました

日本語訳に参加させていただいた書籍は下記のリンクから読めます!
オリジナル書籍:Neural Networks and Deep Learning
日本語版書籍:ニューラルネットワークと深層学習

量子コンピューティング分野の物理学者Michael Nielsenという方の執筆したオンライン書籍です。 この書籍の内容はニューラルネットの入門者向けとなっています。
「なぜ?」の部分について詳しく、そしてとても分かりやすく記述されていておすすめです。
本書を読むと、例えば以下の疑問について説明できるようになります。

  • なぜ2層ニューラルネットは任意の関数を近似できるのか
  • なぜ勾配消失や勾配爆発などの問題が起きるのか
  • なぜ正規化項にバイアスは含まれないのか

個人的には、深層学習を学び始めた人が、
ゼロから作るディープラーニングの次に読むべき書籍は本書だと思っています。

翻訳参加のきっかけ

2017年1月から、機械学習を入門し始めました。
その中でも特に流行りのニューラルネットにキャッチアップしようと、
ゼロから作るディープラーニングとかStanfordの教材CS231nとか一通りさらいました。
誤差逆伝播法や畳込みを理解して、どんどん楽しくなっていったのを覚えています。

その直後、そろそろ論文読める頃かなとmaxoutの論文を読み始めたら、
「universal approximator theorem」という言葉が出てきて、
調べてたどり着いたのがこのオンライン書籍。

ニューラルネットの本質を初心者でも分かるように、丁寧に説明してくれています。
「なぜ?」に答える内容により知的好奇心を刺激されて、勉強の楽しさを再確認でき、
単純に読んで良かったと思えた本でした。

しかし日本語版は1~4章までしか出ておらず、5,6章はまだ翻訳されていない模様。
というのもそもそもオリジナル(英語版)の6章が書かれたのが最近でした。
英語が大好きな(≠得意な)私としては、これは翻訳作業を楽しめてさらにOSS貢献までできるチャンス!と思い、
翻訳プロジェクト参加を申し出たのでした…

翻訳作業履歴

担当

私が翻訳を担当したのは、以下の2章です。

実施スケジュール

スケジュール 進捗
1/26 翻訳しようと決心
1/26-1/30 5章翻訳
1/31-2/2 5章翻訳の校正(1回目)
2/3-2/4 5章翻訳の校正(2回目)
2/4 5章をpush
2/5-2/13 6章翻訳
2/14-2/16 6章翻訳の校正(1回目)
2/17 6章翻訳の校正(2回目)
2/17 6章翻訳をpull request

技術翻訳の感想

迷ったら行動すべき

機械学習に対して、にわか知識しかない私なんかが翻訳なんてやっていいのかな」と思っていましたが、
参加表明してみると温かく迎えていただけて、
また何か質問すると、優しく教えて貰えました。

下に記述したように自身の勉強になりますし、
そもそも訳していく作業自体が本当に楽しかったので、
参加してよかったなと思っています。

勉強になる

正しく翻訳しようとすると、内容を深く理解する必要があります。
そのため、少しでも不明な点があると、調べて自分の中で解釈を確定させてから日本語化する、ということを行っていました。
おかげで、単に英語を読むだけのときの30倍くらい時間かかりました(体感)
普段ちゃんと理解していないのかな、と思いました。

私の訳した部分の中では特に、勾配爆発や勾配消失の起きる要因について、
完全に頭の中で整理できたことが一番の収穫でした。

原点のニュアンス vs 日本語としての読みやすさ

原典のニュアンスを残しつつ、日本語として読みやすくするのは難しかったです。
どちらかを妥協する必要があります。

  • 原典を妥協すると、別のオリジナル文書になってしまいます
  • 日本語の読みやすさを妥協すると、読みにくくなるため、そもそも読まれず、翻訳自体の価値が減っていきます。

今回は、原典が入門者用の読み物であり平易にわかりやすく書かれていたため、
日本語訳もわかりやすさ重視で意訳気味に行いました。

最後に

温かく迎えてくださった翻訳プロジェクトの方に心から感謝しています。
(後から気づいたのですが、翻訳メンバが豪華でした…)
技術翻訳初めての経験でしたが翻訳作業自体を、大変楽しめました!
もし誤訳等ございましたらお知らせください(もしくは修正ください)

参考

オリジナル書籍:Neural Networks and Deep Learning
日本語版書籍:ニューラルネットワークと深層学習
プロジェクトを管理されている方によるプロジェクト概略