Tác giả CN Bùi, Quốc Khánh.
Nhan đề Mạng Nơ-ron hồi quy /Bùi Quốc Khánh.
Thông tin xuất bản Hà Nội : Đại học Hà Nội, 2020
Mô tả vật lý tr. 12-17
Tóm tắt Mạng hồi quy (RNN) thực hiện cùng một tác vụ cho tất cả các phần tử của một chuỗi với đầu ra phụ thuộc vào cả các phép tính trước đó. Nó có khả năng nhớ các thông tin được tính toán trước. Gần đây, mạng LSTM đang được chú ý và sử dụng khá phổ biến. Về cơ bản, mô hình của LSTM không khác mô hình truyền thống của RNN nhưng chúng sử dụng hàm tính toán khác ở các trạng thái ẩn. Vì vậy mà ta có thể truy xuất được quan hệ của các từ phụ thuộc xa nhau rất hiệu quả.
Tóm tắt One major assumption for Neural Networks and in fact many other machine learning models is the independence among data samples. However, this assumption does not hold for data which is sequential in nature. One mechanism to account for sequential dependency is to concatenate a fixed number of consecutive data samples together and treat them as one data point, like moving a fixed size sliding window over data stream. Recurrent Neural Networks process the input sequence one element at a time and maintain a hidden state vector which acts as a memory for past information. They learn to selectively retain relevant information allowing them to capture dependencies across several time sreps, which allows them to utilize both current input and past information while making future predictions.
Đề mục chủ đề Recurrent Neural Networks--Sequential Data
Đề mục chủ đề Mạng hồi quy--Dữ liệu
Thuật ngữ không kiểm soát Neural Networks
Thuật ngữ không kiểm soát Dữ liệu
Thuật ngữ không kiểm soát Sequential Data
Thuật ngữ không kiểm soát Mạng hồi quy
Thuật ngữ không kiểm soát Recurrent Neural Networks
Nguồn trích Kỷ yếu hội thảo khoa học giáo viên Khoa Công nghệ thông tin- 5/2020
000 00000nab#a2200000u##4500
00163991
0022
004577B8429-B9BE-4E5A-81D3-D9445C5418BE
005202112151006
008211215s2020 vm eng
0091 0
039|a20211215100612|bhuongnt|y20211214081658|zhuongnt
0410 |aeng
044 |avm
1000 |aBùi, Quốc Khánh.
24510|aMạng Nơ-ron hồi quy /|cBùi Quốc Khánh.
260 |aHà Nội :|bĐại học Hà Nội,|c2020
300 |atr. 12-17
520 |aMạng hồi quy (RNN) thực hiện cùng một tác vụ cho tất cả các phần tử của một chuỗi với đầu ra phụ thuộc vào cả các phép tính trước đó. Nó có khả năng nhớ các thông tin được tính toán trước. Gần đây, mạng LSTM đang được chú ý và sử dụng khá phổ biến. Về cơ bản, mô hình của LSTM không khác mô hình truyền thống của RNN nhưng chúng sử dụng hàm tính toán khác ở các trạng thái ẩn. Vì vậy mà ta có thể truy xuất được quan hệ của các từ phụ thuộc xa nhau rất hiệu quả.
520 |aOne major assumption for Neural Networks and in fact many other machine learning models is the independence among data samples. However, this assumption does not hold for data which is sequential in nature. One mechanism to account for sequential dependency is to concatenate a fixed number of consecutive data samples together and treat them as one data point, like moving a fixed size sliding window over data stream. Recurrent Neural Networks process the input sequence one element at a time and maintain a hidden state vector which acts as a memory for past information. They learn to selectively retain relevant information allowing them to capture dependencies across several time sreps, which allows them to utilize both current input and past information while making future predictions.
65010|aRecurrent Neural Networks|xSequential Data
65017|aMạng hồi quy|xDữ liệu
6530 |aNeural Networks
6530 |aDữ liệu
6530 |aSequential Data
6530 |aMạng hồi quy
6530 |aRecurrent Neural Networks
773 |tKỷ yếu hội thảo khoa học giáo viên Khoa Công nghệ thông tin|g5/2020
890|a0|b0|c0|d0

Không có liên kết tài liệu số nào