ニューラルネットで用いられる活性化関数として提唱されたものの一つが、マックスアウトと呼ばれる関数です。
参考文献・参考ウェブサイト
- Maxout Networks. Ian J. Goodfellow, David Warde-Farley, Mehdi Mirza,Aaron Courville, andYoshua Bengio. Proceedings of the 30 th International Conference on Machine Learning, Atlanta, Georgia, USA, 2013. JMLR:W&CP volume 28. マックスアウトを提唱した英語の原著論文
- INVESTIGATION OF MAXOUT NETWORKS FOR SPEECH RECOGNITION. Pawel Swietojanski, Jinyu Li, Jui-Ting Huang. Fig. 1. A scheme of a single maxout layer with pool size K = 3. マックスアウトを音声認識へ適用
- DEEP MAXOUT NETWORKS FOR LOW-RESOURCE SPEECH RECOGNITION. Yajie Miao, Florian Metze, and Shourabh Rawat マックスアウトを音声認識へ適用
Layers can be stacked on each other to form deeper structures. - 文書分類をタスクとしたPylearn2 のMaxout+Dropout の利用 永田純平 新納浩幸 佐々木稔 古宮嘉那子 茨城大学工学部情報工学科 言語処理学会 第21回年次大会 発表論文集 (2015年3月)
- Maxout Networks. Hien Quoc Dang Machine Learning Seminar 10/12/13 (24 page pdf handout)