Kami ingin menyajikan terjemahan dari artikel menarik tentang belajar dengan jaringan saraf pada data tabel. Bagian kedua ada di sini.
Secara singkat
Memperkenalkan TabNet, arsitektur pembelajaran dalam kanonis berperforma tinggi baru berdasarkan data tabular. TabNet menggunakan evaluasi berurutan dari pilihan fitur yang akan digunakan pada setiap titik keputusan. Ini memastikan interpretabilitas dan efisiensi proses pembelajaran, karena kemampuan untuk belajar ditentukan oleh fungsi yang lebih relevan (yang paling memadai, sesuai dengan perkiraan yang dipertimbangkan dari pilihan solusi). TabNet telah terbukti mengungguli jaringan neural dan arsitektur pohon keputusan lainnya dalam berbagai kumpulan data skalar tabel dalam menafsirkan atribut kinerjanya, yang mengarah pada pemahaman tentang perilaku model secara keseluruhan. Terakhir, untuk pertama kalinya, sejauh yang kami tahu,kami mendemonstrasikan pembelajaran mandiri untuk data tabel dengan peningkatan kecepatan pembelajaran yang signifikan dan kumpulan data awal yang cukup besar.
1. Perkenalan
Jaringan saraf dalam (GNN) telah menunjukkan keberhasilan mereka saat bekerja dengan gambar [21, 50], teks [9, 34] dan suara [1, 56]. Untuk jenis data ini, faktor pengembangan utamanya adalah ketersediaan arsitektur kanonis yang memungkinkan penyandian urutan awal secara efisien ke dalam urutan pelatihan, untuk memberikan performa tinggi pada kumpulan data baru dan tugas yang diselesaikan dengan bantuan mereka dengan sumber daya minimal. Misalnya, dalam interpretasi gambar, varian jaringan konvolusional sisa (khususnya, ResNet [21]) harus memberikan kinerja yang cukup baik saat bekerja dengan kumpulan data baru untuk gambar atau masalah pengenalan visual terkait (misalnya, klasifikasi, taksonomi). Satu-satunya jenis data yang keberhasilan arsitektur GNS kanonik belum tercapai adalah data tabel. Meskipun,bahwa itu adalah tipe data yang paling umum dalam implementasi AI [8], pembelajaran mendalam untuk data tabel masih kurang dipahami, dan varian pohon keputusan ensembel masih mendominasi sebagian besar aplikasi [28]. Mengapa demikian? Pertama, karena pendekatan berbasis pohon memiliki keuntungan tertentu yang membuatnya populer: (i) pendekatan tersebut cukup representatif (dan karena itu sering kali sangat efisien) untuk manifold keputusan dengan batas distribusi hyperplane fuzzy untuk data tabular; (ii) mereka ditafsirkan dengan baik (misalnya, dengan melacak keputusan nodal) dan ada metode yang efektif untuk penjelasan a posteriori dari bentuk ansambel mereka, yang [36] merupakan tugas penting dalam banyak aplikasi dunia nyata (misalnya, dalam layanan keuangan, di mana kepercayaan dalam tindakan dengan risiko tinggi sangat penting);(iii) mereka belajar dengan cepat. Kedua, arsitektur GNS yang diusulkan sebelumnya tidak adaptif dengan data tabular: GNS konvensional pada lapisan konvolusional atau multilayer perceptrons (MLP) seringkali sangat berparameter (dalam hal jumlah parameter dan kompleksitas identifikasi mereka) - tidak adanya bias induktif yang sesuai mengarah pada fakta bahwa tidak dapat menemukan solusi optimal untuk berbagai solusi tabel [17]. Mengapa Mempelajari Deep Learning untuk Data Tabular? Salah satu alasan yang jelas adalah bahwa, seperti di area lain, peningkatan kinerja dapat diharapkan dari arsitektur berbasis GNS, terutama untuk kumpulan data besar [22]. Juga, tidak seperti pembelajaran pohon (hierarki), yang tidak menggunakan propagasi mundur dari kesalahan data untuk mendorong pembelajaran yang efektif dari sinyal yang salah,GNN menyediakan strategi pembelajaran penurunan gradien ujung ke ujung untuk data tabular, dengan banyak keunggulan yang ditunjukkan di banyak area berbeda, memungkinkan: (i) untuk secara efisien menyandikan banyak jenis data, seperti gambar dalam bentuk data tabel; (ii) memfasilitasi atau menghilangkan kebutuhan untuk pengembangan fitur, yang sekarang menjadi aspek kunci dari metode pembelajaran pohon menggunakan data tabel; (iii) melatih data streaming - pelatihan pada struktur pohon memerlukan statistik global untuk memilih titik nodal, dan modifikasi sederhana, seperti dalam [4], biasanya memberikan akurasi yang lebih rendah daripada pelatihan untuk seluruh sampel data; Sebaliknya, STS menunjukkan potensi yang lebih besar untuk pembelajaran seumur hidup [44]; (iv) mengeksplorasi model presentasi ujung-ke-ujung,memungkinkan skenario baru yang berharga untuk aplikasi baru, termasuk adaptasi ke area penggunaan data yang efisien [17], pemodelan generatif [46] dan pembelajaran guru bagian [11].
, , . , ? - TabNet, « » ( ) ( ). , TabNet : . , - , . , : (1) , TabNet ; (2) TabNet , , , , (. . 1); , , , , [6] [61], Tab-Net .
(3) , : (a) TabNet ; (b) TabNet : , , , .
(4) , , (. . 2).
.
2.
: , , () . , LASSO [20], , , . , [6] , [61] «-» . , TabNet , () , .
: . [18]. , (). – [23], . XGBoost [7] LightGBM [30] - , (Data Science). , , , .
DNN : , [26], . () [33, 58] . , . [60] , . [31] -, , , . [53] - « » (, ), . TabNet , .
: - , [3, 35] . , .
: , , [47]. [13] [55] - .
3. TABNET
. (. . 3 ). . , () . TabNet - . , , , :
(i) , ; (ii) , , ; (iii) ; (iv) .
. 4 TabNet . . . , (). D-
, B- . TabNet N .
i- (i - 1)- , , . (, [25]) [40] .
, . ( ) , . .
:
. , , , . , M[i] · f. (. . 4) , , a[i − 1]:
Sparsemax [37] , .
, 1
h[i] - , . 4., FC, BN, P[i] - , , :
γ - : γ = 1, γ, . P[0] ,
- . ( ), P[0] , . [19]:
ϵ- . λ . , .
: (. . 4) ,
, ( ), , .
. 4 . FC BN (GLU) [12], . √0.5 , , [15]. . BN, , , BN [24] BV mB. , , BN. , , . 3,
:
. softmax ( argmax ).
TABNet.
, , , .
[1] Dario Amodei, Rishita Anubhai, Eric Battenberg, Carl Case, Jared Casper, et al. 2015. Deep Speech 2: End-to-End Speech Recognition in English and Mandarin. arXiv:1512.02595 (2015).
[2] AutoML. 2019. AutoML Tables – Google Cloud. https://cloud.google.com/automl-tables/
[3] J. Bao, D. Tang, N. Duan, Z. Yan, M. Zhou, and T. Zhao. 2019. Text Generation From Tables. IEEE Trans Audio, Speech, and Language Processing 27, 2 (Feb 2019), 311–320.
[4] Yael Ben-Haim and Elad Tom-Tov. 2010. A Streaming Parallel Decision Tree Algorithm. JMLR 11 (March 2010), 849–872.
[5] Catboost. 2019. Benchmarks. https://github.com/catboost/benchmarks. Accessed: 2019-11-10.
[6] Jianbo Chen, Le Song, Martin J. Wainwright, and Michael I. Jordan. 2018. Learning to Explain: An Information-Theoretic Perspective on Model Interpretation. arXiv:1802.07814 (2018).
[7] Tianqi Chen and Carlos Guestrin. 2016. XGBoost: A Scalable Tree Boosting System. In KDD.
[8] Michael Chui, James Manyika, Mehdi Miremadi, Nicolaus Henke, Rita Chung, et al. 2018. Notes from the AI Frontier. McKinsey Global Institute (4 2018).
[9] Alexis Conneau, Holger Schwenk, Lo¨ıc Barrault, and Yann LeCun. 2016. Very Deep Convolutional Networks for Natural Language Processing. arXiv:1606.01781 (2016).
[10] Corinna Cortes, Xavi Gonzalvo, Vitaly Kuznetsov, Mehryar Mohri, and Scott Yang. 2016. AdaNet: Adaptive Structural Learning of Artificial Neural Networks. arXiv:1607.01097 (2016).
[11] Zihang Dai, Zhilin Yang, Fan Yang, William W. Cohen, and Ruslan Salakhutdinov. 2017. Good Semi-supervised Learning that Requires a Bad GAN. arxiv:1705.09783 (2017).
[12] Yann N. Dauphin, Angela Fan, Michael Auli, and David Grangier. 2016. Language Modeling with Gated Convolutional Networks. arXiv:1612.08083 (2016).
[13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2018. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv:1810.04805 (2018).
[14] Dheeru Dua and Casey Graff. 2017. UCI Machine Learning Repository. http: //archive.ics.uci.edu/ml
[15] Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N. Dauphin. 2017. Convolutional Sequence to Sequence Learning. arXiv:1705.03122 (2017).
[16] Pierre Geurts, Damien Ernst, and Louis Wehenkel. 2006. Extremely randomized trees. Machine Learning 63, 1 (01 Apr 2006), 3–42.
[17] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. 2016. Deep Learning. MIT Press.
[18] K. Grabczewski and N. Jankowski. 2005. Feature selection with decision tree criterion. In HIS.
[19] Yves Grandvalet and Yoshua Bengio. 2004. Semi-supervised Learning by Entropy Minimization. In NIPS.
[20] Isabelle Guyon and Andre Elisseeff. 2003. An Introduction to Variable and Feature ´ Selection. JMLR 3 (March 2003), 1157–1182.
[21] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. 2015. Deep Residual Learning for Image Recognition. arXiv:1512.03385 (2015).
[22] Joel Hestness, Sharan Narang, Newsha Ardalani, Gregory F. Diamos, Heewoo Jun, Hassan Kianinejad, Md. Mostofa Ali Patwary, Yang Yang, and Yanqi Zhou. 2017. Deep Learning Scaling is Predictable, Empirically. arXiv:1712.00409 (2017).
[23] Tin Kam Ho. 1998. The random subspace method for constructing decision forests. PAMI 20, 8 (Aug 1998), 832–844.
[24] Elad Hoffer, Itay Hubara, and Daniel Soudry. 2017. Train longer, generalize better: closing the generalization gap in large batch training of neural networks. arXiv:1705.08741 (2017).
[25] Drew A. Hudson and Christopher D. Manning. 2018. Compositional Attention Networks for Machine Reasoning. arXiv:1803.03067 (2018).
[26] K. D. Humbird, J. L. Peterson, and R. G. McClarren. 2018. Deep Neural Network Initialization With Decision Trees. IEEE Trans Neural Networks and Learning Systems (2018).
[27] Mark Ibrahim, Melissa Louie, Ceena Modarres, and John W. Paisley. 2019. Global Explanations of Neural Networks: Mapping the Landscape of Predictions. arxiv:1902.02384 (2019).
[28] Kaggle. 2019. Historical Data Science Trends on Kaggle. https://www.kaggle. com/shivamb/data-science-trends-on-kaggle. Accessed: 2019-04-20.
[29] Kaggle. 2019. Rossmann Store Sales. https://www.kaggle.com/c/ rossmann-store-sales. Accessed: 2019-11-10.
[30] Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, et al. 2017. LightGBM: A Highly Effcient Gradient Boosting Decision Tree. In NIPS.
[31] Guolin Ke, Jia Zhang, Zhenhui Xu, Jiang Bian, and Tie-Yan Liu. 2019. TabNN: A Universal Neural Network Solution for Tabular Data. https://openreview.net/forum?id=r1eJssCqY7
[32] Diederik P. Kingma and Jimmy Ba. 2014. Adam: A Method for Stochastic Optimization. In ICLR.
[33] P. Kontschieder, M. Fiterau, A. Criminisi, and S. R. Bul. 2015. Deep Neural Decision Forests. In ICCV.
[34] Siwei Lai, Liheng Xu, Kang Liu, and Jun Zhao. 2015. Recurrent Convolutional Neural Networks for Text Classification. In AAAI.
[35] Tianyu Liu, Kexiang Wang, Lei Sha, Baobao Chang, and Zhifang Sui. 2017. Table-to-text Generation by Structure-aware Seq2seq Learning. arXiv:1711.09724 (2017).
[36] Scott M. Lundberg, Gabriel G. Erion, and Su-In Lee. 2018. Consistent Individualized Feature Attribution for Tree Ensembles. arXiv:1802.03888 (2018).
[37] Andre F. T. Martins and Ram ´ on Fern ´ andez Astudillo. 2016. From Softmax ´ to Sparsemax: A Sparse Model of Attention and Multi-Label Classification. arXiv:1602.02068 (2016).
[38] Rory Mitchell, Andrey Adinets, Thejaswi Rao, and Eibe Frank. 2018. XGBoost: Scalable GPU Accelerated Learning. arXiv:1806.11248 (2018).
[39] Decebal Mocanu, Elena Mocanu, Peter Stone, Phuong Nguyen, Madeleine Gibescu, and Antonio Liotta. 2018. Scalable training of artificial neural networks with adaptive sparse connectivity inspired by network science. Nature Communications 9 (12 2018).
[40] Alex Mott, Daniel Zoran, Mike Chrzanowski, Daan Wierstra, and Danilo J. Rezende. 2019. S3TA: A Soft, Spatial, Sequential, Top-Down Attention Model. https://openreview.net/forum?id=B1gJOoRcYQ
[41] Sharan Narang, Gregory F. Diamos, Shubho Sengupta, and Erich Elsen. 2017. Exploring Sparsity in Recurrent Neural Networks. arXiv:1704.05119 (2017).
[42] Nbviewer. 2019. Notebook on Nbviewer. https://nbviewer.jupyter.org/github/ dipanjanS/data science for all/blob/master/tds model interpretation xai/ Human-interpretableMachineLearning-DS.ipynb#
[43] N. C. Oza. 2005. Online bagging and boosting. In IEEE Trans Conference on Systems, Man and Cybernetics.
[44] German Ignacio Parisi, Ronald Kemker, Jose L. Part, Christopher Kanan, and Stefan Wermter. 2018. Continual Lifelong Learning with Neural Networks: A Review. arXiv:1802.07569 (2018).
[45] Liudmila Prokhorenkova, Gleb Gusev, Aleksandr Vorobev, Anna Veronika Dorogush, and Andrey Gulin. 2018. CatBoost: unbiased boosting with categorical features. In NIPS.
[46] Alec Radford, Luke Metz, and Soumith Chintala. 2015. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. arXiv:1511.06434 (2015).
[47] Rajat Raina, Alexis Battle, Honglak Lee, Benjamin Packer, and Andrew Y. Ng. 2007. Self-Taught Learning: Transfer Learning from Unlabeled Data. In ICML.
[48] Marco Ribeiro, Sameer Singh, and Carlos Guestrin. 2016. fiWhy Should I Trust You?fi: Explaining the Predictions of Any Classifier. In KDD.
[49] Avanti Shrikumar, Peyton Greenside, and Anshul Kundaje. 2017. Learning Important Features Through Propagating Activation Differences. arXiv:1704.02685 (2017).
[50] Karen Simonyan and Andrew Zisserman. 2014. Very Deep Convolutional Networks for Large-Scale Image Recognition. arXiv:1409.1556 (2014).
[51] Weiping Song, Chence Shi, Zhiping Xiao, Zhijian Duan, Yewen Xu, Ming Zhang, and Jian Tang. 2018. AutoInt: Automatic Feature Interaction Learning via SelfAttentive Neural Networks. arxiv:1810.11921 (2018).
[52] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. 2017. Axiomatic Attribution for Deep Networks. arXiv:1703.01365 (2017).
[53] Ryutaro Tanno, Kai Arulkumaran, Daniel C. Alexander, Antonio Criminisi, and Aditya V. Nori. 2018. Adaptive Neural Trees. arXiv:1807.06699 (2018).
[54] Tensorflow. 2019. Classifying Higgs boson processes in the HIGGS Data Set. https://github.com/tensorflow/models/tree/master/offcial/boosted trees
[55] Trieu H. Trinh, Minh-Thang Luong, and Quoc V. Le. 2019. Selfie: Self-supervised Pretraining for Image Embedding. arXiv:1906.02940 (2019).
[56] Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol ¨ Vinyals, et al. 2016. WaveNet: A Generative Model for Raw Audio. arXiv:1609.03499 (2016).
[57] Sethu Vijayakumar and Stefan Schaal. 2000. Locally Weighted Projection Regression: An O(n) Algorithm for Incremental Real Time Learning in High Dimensional Space. In ICML.
[58] Suhang Wang, Charu Aggarwal, and Huan Liu. 2017. Using a random forest to inspire a neural network and improving on it. In SDM.
[59] Wei Wen, Chunpeng Wu, Yandan Wang, Yiran Chen, and Hai Li. 2016. Learning Structured Sparsity in Deep Neural Networks. arXiv:1608.03665 (2016).
[60] Yongxin Yang, Irene Garcia Morillo, and Timothy M. Hospedales. 2018. Deep Neural Decision Trees. arXiv:1806.06988 (2018).
[61] Jinsung Yoon, James Jordon, and Mihaela van der Schaar. 2019. INVASE: Instancewise Variable Selection using Neural Networks. In ICLR.