www.fgks.org   »   [go: up one dir, main page]

Bước tới nội dung

Khác biệt giữa bản sửa đổi của “Bộ tự mã hóa”

Bách khoa toàn thư mở Wikipedia
Nội dung được xóa Nội dung được thêm vào
Không có tóm lược sửa đổi
n →‎top: clean up, replaced: {{Cite journal → {{Chú thích tạp chí, {{cite journal → {{chú thích tạp chí (4)
 
Dòng 3: Dòng 3:
{{Thanh bên học máy}}
{{Thanh bên học máy}}


'''Bộ tự mã hóa''' ([[tiếng Anh]]: '''autoencoder''') là một dạng [[mạng thần kinh nhân tạo]] được dùng để học [[học đặc tính|các mã hóa dữ liệu hiệu quả]] theo cách [[học không có giám sát]].<ref>{{cite journal|doi=10.1002/aic.690370209|title=Nonlinear principal component analysis using autoassociative neural networks|journal=AIChE Journal|volume=37|issue=2|pages=233–243|date=1991|last1=Kramer|first1=Mark A.|url= https://www.researchgate.net/profile/Abir_Alobaid/post/To_learn_a_probability_density_function_by_using_neural_network_can_we_first_estimate_density_using_nonparametric_methods_then_train_the_network/attachment/59d6450279197b80779a031e/AS:451263696510979@1484601057779/download/NL+PCA+by+using+ANN.pdf}}</ref> Mục tiêu của một bộ tự mã hóa là học một [[học đặc tính]] (mã hóa) từ một tập dữ liệu, thông thường dành cho [[giảm chiều dữ liệu]] (dimensionality reduction), bằng cách huấn luyện mạng thần kinh bỏ qua các tín hiệu "lỗi". Cùng với mặt rút gọn, một mặt tái tạo cũng được học, trong đó bộ tự mã hóa cố gắng tạo ra từ mã hóa rút gọn một thể hiện gần nhất có thể với đầu vào ban đầu của nó. Một vài biến thể tồn tại đối với mô hình cơ bản, với mục đích ép buộc các thể hiện đã được học của đầu vào để giả định các thuộc tính hữu ích.<ref name=":0">{{chú thích sách|url=http://www.deeplearningbook.org|title=Deep Learning|last1=Goodfellow|first1=Ian|last2=Bengio|first2=Yoshua|last3=Courville|first3=Aaron|publisher=MIT Press|date=2016|isbn=978-0262035613|location=|pages=}}</ref> Các ví dụ là các bộ tự mã hóa chính quy (''thưa thớt'', ''giảm nhiễu'', và các bộ tự mã hóa có tính chất co rút), chứng minh là hiệu trong các thể hiện học dành cho các tác vụ phân loại theo sau,<ref name=":4">{{Cite journal|last1=Vincent|first1=Pascal|last2=Larochelle|first2=Hugo|date=2010|title=Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion|url=|journal=Journal of Machine Learning Research|volume=11|pages=3371–3408|via=}}</ref> và các bộ tự mã hóa ''đa dạng'', với các ứng dụng gần đây là các mô hình sinh mẫu.<ref name=":11">{{cite journal |arxiv=1906.02691|doi=10.1561/2200000056|bibcode=2019arXiv190602691K|title=An Introduction to Variational Autoencoders|date=2019|last1=Welling|first1=Max|last2=Kingma|first2=Diederik P.|journal=Foundations and Trends in Machine Learning|volume=12|issue=4|pages=307–392}}</ref> Các bộ tự mã hóa có hiệu quả khi dùng cho việc giải quyết nhiều vấn đề có tính ứng dụng, từ [[hệ thống nhận dạng khuôn mặt]]<ref>Hinton GE, Krizhevsky A, Wang SD. [http://www.cs.toronto.edu/~fritz/absps/transauto6.pdf Transforming auto-encoders.] In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg.</ref> cho đến tiếp thu ý nghĩa ngữ nghĩa của các từ vựng.<ref>{{cite journal|doi=10.1016/j.neucom.2008.04.030|title=Modeling word perception using the Elman network|journal=Neurocomputing|volume=71|issue=16–18|pages=3150|date=2008|last1=Liou|first1=Cheng-Yuan|last2=Huang|first2=Jau-Chi|last3=Yang|first3=Wen-Chie}}</ref><ref>{{cite journal|doi=10.1016/j.neucom.2013.09.055|title=Autoencoder for words|journal=Neurocomputing|volume=139|pages=84–96|date=2014|last1=Liou|first1=Cheng-Yuan|last2=Cheng|first2=Wei-Chen|last3=Liou|first3=Jiun-Wei|last4=Liou|first4=Daw-Ran}}</ref>
'''Bộ tự mã hóa''' ([[tiếng Anh]]: '''autoencoder''') là một dạng [[mạng thần kinh nhân tạo]] được dùng để học [[học đặc tính|các mã hóa dữ liệu hiệu quả]] theo cách [[học không có giám sát]].<ref>{{chú thích tạp chí|doi=10.1002/aic.690370209|title=Nonlinear principal component analysis using autoassociative neural networks|journal=AIChE Journal|volume=37|issue=2|pages=233–243|date=1991|last1=Kramer|first1=Mark A.|url= https://www.researchgate.net/profile/Abir_Alobaid/post/To_learn_a_probability_density_function_by_using_neural_network_can_we_first_estimate_density_using_nonparametric_methods_then_train_the_network/attachment/59d6450279197b80779a031e/AS:451263696510979@1484601057779/download/NL+PCA+by+using+ANN.pdf}}</ref> Mục tiêu của một bộ tự mã hóa là học một [[học đặc tính]] (mã hóa) từ một tập dữ liệu, thông thường dành cho [[giảm chiều dữ liệu]] (dimensionality reduction), bằng cách huấn luyện mạng thần kinh bỏ qua các tín hiệu "lỗi". Cùng với mặt rút gọn, một mặt tái tạo cũng được học, trong đó bộ tự mã hóa cố gắng tạo ra từ mã hóa rút gọn một thể hiện gần nhất có thể với đầu vào ban đầu của nó. Một vài biến thể tồn tại đối với mô hình cơ bản, với mục đích ép buộc các thể hiện đã được học của đầu vào để giả định các thuộc tính hữu ích.<ref name=":0">{{chú thích sách|url=http://www.deeplearningbook.org|title=Deep Learning|last1=Goodfellow|first1=Ian|last2=Bengio|first2=Yoshua|last3=Courville|first3=Aaron|publisher=MIT Press|date=2016|isbn=978-0262035613|location=|pages=}}</ref> Các ví dụ là các bộ tự mã hóa chính quy (''thưa thớt'', ''giảm nhiễu'', và các bộ tự mã hóa có tính chất co rút), chứng minh là hiệu trong các thể hiện học dành cho các tác vụ phân loại theo sau,<ref name=":4">{{Chú thích tạp chí|last1=Vincent|first1=Pascal|last2=Larochelle|first2=Hugo|date=2010|title=Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion|url=|journal=Journal of Machine Learning Research|volume=11|pages=3371–3408|via=}}</ref> và các bộ tự mã hóa ''đa dạng'', với các ứng dụng gần đây là các mô hình sinh mẫu.<ref name=":11">{{chú thích tạp chí |arxiv=1906.02691|doi=10.1561/2200000056|bibcode=2019arXiv190602691K|title=An Introduction to Variational Autoencoders|date=2019|last1=Welling|first1=Max|last2=Kingma|first2=Diederik P.|journal=Foundations and Trends in Machine Learning|volume=12|issue=4|pages=307–392}}</ref> Các bộ tự mã hóa có hiệu quả khi dùng cho việc giải quyết nhiều vấn đề có tính ứng dụng, từ [[hệ thống nhận dạng khuôn mặt]]<ref>Hinton GE, Krizhevsky A, Wang SD. [http://www.cs.toronto.edu/~fritz/absps/transauto6.pdf Transforming auto-encoders.] In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg.</ref> cho đến tiếp thu ý nghĩa ngữ nghĩa của các từ vựng.<ref>{{chú thích tạp chí|doi=10.1016/j.neucom.2008.04.030|title=Modeling word perception using the Elman network|journal=Neurocomputing|volume=71|issue=16–18|pages=3150|date=2008|last1=Liou|first1=Cheng-Yuan|last2=Huang|first2=Jau-Chi|last3=Yang|first3=Wen-Chie}}</ref><ref>{{chú thích tạp chí|doi=10.1016/j.neucom.2013.09.055|title=Autoencoder for words|journal=Neurocomputing|volume=139|pages=84–96|date=2014|last1=Liou|first1=Cheng-Yuan|last2=Cheng|first2=Wei-Chen|last3=Liou|first3=Jiun-Wei|last4=Liou|first4=Daw-Ran}}</ref>


== Xem thêm ==
== Xem thêm ==

Bản mới nhất lúc 17:44, ngày 15 tháng 8 năm 2021

Bộ tự mã hóa (tiếng Anh: autoencoder) là một dạng mạng thần kinh nhân tạo được dùng để học các mã hóa dữ liệu hiệu quả theo cách học không có giám sát.[1] Mục tiêu của một bộ tự mã hóa là học một học đặc tính (mã hóa) từ một tập dữ liệu, thông thường dành cho giảm chiều dữ liệu (dimensionality reduction), bằng cách huấn luyện mạng thần kinh bỏ qua các tín hiệu "lỗi". Cùng với mặt rút gọn, một mặt tái tạo cũng được học, trong đó bộ tự mã hóa cố gắng tạo ra từ mã hóa rút gọn một thể hiện gần nhất có thể với đầu vào ban đầu của nó. Một vài biến thể tồn tại đối với mô hình cơ bản, với mục đích ép buộc các thể hiện đã được học của đầu vào để giả định các thuộc tính hữu ích.[2] Các ví dụ là các bộ tự mã hóa chính quy (thưa thớt, giảm nhiễu, và các bộ tự mã hóa có tính chất co rút), chứng minh là hiệu trong các thể hiện học dành cho các tác vụ phân loại theo sau,[3] và các bộ tự mã hóa đa dạng, với các ứng dụng gần đây là các mô hình sinh mẫu.[4] Các bộ tự mã hóa có hiệu quả khi dùng cho việc giải quyết nhiều vấn đề có tính ứng dụng, từ hệ thống nhận dạng khuôn mặt[5] cho đến tiếp thu ý nghĩa ngữ nghĩa của các từ vựng.[6][7]

Xem thêm[sửa | sửa mã nguồn]

Tham khảo[sửa | sửa mã nguồn]

  1. ^ Kramer, Mark A. (1991). “Nonlinear principal component analysis using autoassociative neural networks” (PDF). AIChE Journal. 37 (2): 233–243. doi:10.1002/aic.690370209.
  2. ^ Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). Deep Learning. MIT Press. ISBN 978-0262035613.
  3. ^ Vincent, Pascal; Larochelle, Hugo (2010). “Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion”. Journal of Machine Learning Research. 11: 3371–3408.
  4. ^ Welling, Max; Kingma, Diederik P. (2019). “An Introduction to Variational Autoencoders”. Foundations and Trends in Machine Learning. 12 (4): 307–392. arXiv:1906.02691. Bibcode:2019arXiv190602691K. doi:10.1561/2200000056.
  5. ^ Hinton GE, Krizhevsky A, Wang SD. Transforming auto-encoders. In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg.
  6. ^ Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). “Modeling word perception using the Elman network”. Neurocomputing. 71 (16–18): 3150. doi:10.1016/j.neucom.2008.04.030.
  7. ^ Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw-Ran (2014). “Autoencoder for words”. Neurocomputing. 139: 84–96. doi:10.1016/j.neucom.2013.09.055.