Tác giả CN
| Bùi, Quốc Khánh. |
Nhan đề
| Mạng Nơ-ron hồi quy /Bùi Quốc Khánh. |
Thông tin xuất bản
| Hà Nội : Đại học Hà Nội, 2020 |
Mô tả vật lý
| tr. 12-17 |
Tóm tắt
| Mạng hồi quy (RNN) thực hiện cùng một tác vụ cho tất cả các phần tử của một chuỗi với đầu ra phụ thuộc vào cả các phép tính trước đó. Nó có khả năng nhớ các thông tin được tính toán trước. Gần đây, mạng LSTM đang được chú ý và sử dụng khá phổ biến. Về cơ bản, mô hình của LSTM không khác mô hình truyền thống của RNN nhưng chúng sử dụng hàm tính toán khác ở các trạng thái ẩn. Vì vậy mà ta có thể truy xuất được quan hệ của các từ phụ thuộc xa nhau rất hiệu quả. |
Tóm tắt
| One major assumption for Neural Networks and in fact many other machine learning models is the independence among data samples. However, this assumption does not hold for data which is sequential in nature. One mechanism to account for sequential dependency is to concatenate a fixed number of consecutive data samples together and treat them as one data point, like moving a fixed size sliding window over data stream. Recurrent Neural Networks process the input sequence one element at a time and maintain a hidden state vector which acts as a memory for past information. They learn to selectively retain relevant information allowing them to capture dependencies across several time sreps, which allows them to utilize both current input and past information while making future predictions. |
Đề mục chủ đề
| Recurrent Neural Networks--Sequential Data |
Đề mục chủ đề
| Mạng hồi quy--Dữ liệu |
Thuật ngữ không kiểm soát
| Neural Networks |
Thuật ngữ không kiểm soát
| Dữ liệu |
Thuật ngữ không kiểm soát
| Sequential Data |
Thuật ngữ không kiểm soát
| Mạng hồi quy |
Thuật ngữ không kiểm soát
| Recurrent Neural Networks |
Nguồn trích
| Kỷ yếu hội thảo khoa học giáo viên Khoa Công nghệ thông tin- 5/2020 |
|
000
| 00000nab#a2200000u##4500 |
---|
001 | 63991 |
---|
002 | 2 |
---|
004 | 577B8429-B9BE-4E5A-81D3-D9445C5418BE |
---|
005 | 202112151006 |
---|
008 | 211215s2020 vm eng |
---|
009 | 1 0 |
---|
035 | |a1456391740 |
---|
039 | |a20241130102335|bidtocn|c20211215100612|dhuongnt|y20211214081658|zhuongnt |
---|
041 | 0 |aeng |
---|
044 | |avm |
---|
100 | 0 |aBùi, Quốc Khánh. |
---|
245 | 10|aMạng Nơ-ron hồi quy /|cBùi Quốc Khánh. |
---|
260 | |aHà Nội :|bĐại học Hà Nội,|c2020 |
---|
300 | |atr. 12-17 |
---|
520 | |aMạng hồi quy (RNN) thực hiện cùng một tác vụ cho tất cả các phần tử của một chuỗi với đầu ra phụ thuộc vào cả các phép tính trước đó. Nó có khả năng nhớ các thông tin được tính toán trước. Gần đây, mạng LSTM đang được chú ý và sử dụng khá phổ biến. Về cơ bản, mô hình của LSTM không khác mô hình truyền thống của RNN nhưng chúng sử dụng hàm tính toán khác ở các trạng thái ẩn. Vì vậy mà ta có thể truy xuất được quan hệ của các từ phụ thuộc xa nhau rất hiệu quả. |
---|
520 | |aOne major assumption for Neural Networks and in fact many other machine learning models is the independence among data samples. However, this assumption does not hold for data which is sequential in nature. One mechanism to account for sequential dependency is to concatenate a fixed number of consecutive data samples together and treat them as one data point, like moving a fixed size sliding window over data stream. Recurrent Neural Networks process the input sequence one element at a time and maintain a hidden state vector which acts as a memory for past information. They learn to selectively retain relevant information allowing them to capture dependencies across several time sreps, which allows them to utilize both current input and past information while making future predictions. |
---|
650 | 10|aRecurrent Neural Networks|xSequential Data |
---|
650 | 17|aMạng hồi quy|xDữ liệu |
---|
653 | 0 |aNeural Networks |
---|
653 | 0 |aDữ liệu |
---|
653 | 0 |aSequential Data |
---|
653 | 0 |aMạng hồi quy |
---|
653 | 0 |aRecurrent Neural Networks |
---|
773 | |tKỷ yếu hội thảo khoa học giáo viên Khoa Công nghệ thông tin|g5/2020 |
---|
890 | |a0|b0|c0|d0 |
---|
| |
Không có liên kết tài liệu số nào
|
|
|
|