Sequence-to Sequence là gì

rong bài viết này, người viết tóm tắt những kiến thức cơ bản của kỹ thuật attention được áp dụng trong mô hình seq2seq và giới thiệu một số nghiên cứu sử dụng kỹ thuật này trong xử lý ngôn ngữ tự nhiên [NLP] tại hội nghị ACL 2017. Về cơ bản, mô hình seq2seq được xây dựng dựa trên hai mạng neural truy hồi [Recurrent Neural Network] đóng vai trò là các bộ mã hóa, giải mã. Vì vậy người viết cũng mô tả khái quát về mạng neural truy hồi trong phần đầu của bài viết.

Giới thiệu

Trong rất nhiều các bài toán, chúng ta cần sinh ra một chuỗi đầu ra từ một chuỗi đầu vào cho trước. Ví dụ, một hệ thống dịch máy Anh Việt sẽ sinh ra một câu dịch tiếng Việt [chuỗi các từ tiếng Việt] cho một câu tiếng Anh đầu vào; một hệ thống sinh hội thoại [dialogue system] tự động sinh ra câu trả lời cho câu hội thoại của người dùng. Gần đây, phương phápsequence-to-sequence[hay tên gọi khác là encoder-decoder] ngày càng được ứng dụng nhiều hơn trong các bài toán trên, trong đó chúng ta cần học một mô hình sinh chuỗi các đầu ra từ chuỗi đầu vào cho trước.

Trong mô hình sequence-to-sequence [seq2seq], kỹ thuậtattentionlà một kỹ thuật cho phép có thể học hiệu quả mô hình sinh cho những chuỗi có độ dài lớn và đã dành được sự quan tâm lớn của cộng đồng nghiên cứu. Hệ thống dịch máy tự động của Google, Google Translate hiện đang áp dụng mô hình seq2seq với kỹ thuậtattentionvà cho chất lượng vượt trội so với những phương pháp trước kia. Tại hội nghị hàng đầu về xử lý ngôn ngữ tự nhiên ACL năm 2017, theo thống kê có khoảng 15 bài báo mà tiêu đề có chữ attention và tăng 6 bài so với hội nghị năm trước.

Trong bài viết này, người viết tóm tắt những kiến thức cơ bản của kỹ thuậtattentionđược áp dụng trong mô hình seq2seq và giới thiệu một số nghiên cứu sử dụng kỹ thuật này trong xử lý ngôn ngữ tự nhiên [NLP] tại hội nghị ACL 2017. Về cơ bản, mô hình seq2seq được xây dựng dựa trên hai mạng neural truy hồi [Recurrent Neural Network] đóng vai trò là các bộ mã hóa, giải mã. Vì vậy người viết cũng mô tả khái quát về mạng neural truy hồi trong phần đầu của bài viết.

Mạng neural truy hồi

Mạng neural truy hồi [Recurrent Neural Network, viết tắt là RNN] được phát minh bởi John Hopfield năm 1982 [2]. Trong khoảng 5-6 năm gần đây, RNN được ứng dụng rộng rãi trong ngành NLP và thu được những thành tựu lớn. Mạng RNN mô hình hóa được bản chất của dữ liệu trong NLP [có đặc tính chuỗi và các thành phần như từ, cụm từ trong dữ liệu phụ thuộc lẫn nhau]. Có thể nói việc áp dụng mạng RNN là một bước đột phá trong ngành NLP.

Mạng RNN nhận đầu vào là một chuỗi các vec-tơx1, ,xnvà trả ra đầu ra là một vectoryn[số chiều củaxiyikhông nhất thiết phải bằng nhau]. Ví dụ một câu bao gồm nhiều từ, mỗi từ được biểu diễn bằng 1 vector [one-hot vec-tơ hoặc vec-tơ sinh ra bằng phương phápword2vec]. Quá trình sinh sử dụng một một đơn vị RNN, và đơn vị RNN này có bản chất là một hàm đệ quy để tính trạng thái đầu ra dựa vào trạng thái trước và đầu vào hiện tại. Mô tả toán học của mạng neural truy hồi như ở dưới đây:

yn=RNN[x[1:n];s0]

yi= 0[si]

si=R[x[i];si1]

Trong đósilà trạng thái của mạng RNN tại bước thời giani.

Mạng RNN được minh họa như hình 1:

Hình 1. Minh họa mạng RNN, Θ là tham số của mô hình [1]

Mạng RNN được huấn luyện bằng cách duỗi thẳng [unroll] mạng RNN và áp dụng thuật toán lan truyền ngược [backpropagation] như trong thuật toán huấn luyện mạng neural truyền thẳng. Thuật toán huấn luyện mạng RNN được Werbos đưa ra năm 1990 và được đặt tên là thuật toán lan truyền ngược theo thời gian[backpropagation through time] [3]. Hình 2 minh họa mạng RNN khi được duỗi thẳng.

Hình 2. Minh họa mạng RNN khi duỗi thẳng, Θ là tham số của mô hình [1]

Mạng RNN đơn giản [Elman Network] có nhược điểm là kém hiệu quả trong việc xử lý những chuỗi dài do vấn đề đạo hàm bị triệt tiêu [vanishing gradients]. Các cải tiến sau đó giải quyết vấn đề này dựa trên cơ chế cổng, tiêu biểu là kiến trúc Long-Short Term Memory [LSTM] [4] và Gated-Recurrent Unit [GRU] [5].

Mô hình sequence-to-sequence với kỹ thuật attention

Mô hình seq2seq cơ bản bao gồm hai mạng neural thành phần được gọi là mạng mã hóa [encoder] và mạng giải mã [decoder] để sinh ra chuỗi đầu rat1:mtừ một chuỗi đầu vàox1:n. Mạng neural encoder mã hóa chuỗi đầu vào thành một vectorccó độ dài cố định. Mạng neural decoder sẽ lần lượt sinh từng từ trong chuỗi đầu ra dựa trên vectorcvà những từ được dự đoán trước đó cho tới khi gặp từ kết thúc câu. Trong mô hình seq2seq, chúng ta có thể sử dụng các kiến trúc mạng khác nhau cho thành phần encoder và decoder như RNN hay mạng neuralconvolutional.Trong bài viết này, người viết tập trung vào mô hình seq2seq sử dụng mạng RNN.

Hình vẽ 3 minh họa mô hình seq2seq trong ví dụ mô hình sinh hội thoại tự động. Mô hình trong hình vẽ sử dụng hai mạng neural LSTM cho thành phần encoder và decoder.

Hình 3. minh họa mô hình sequence-to-sequence. Nguồn ảnh: //github.com/farizrahman4u/seq2seq

Về mặt toán học, mô hình seq2seq được mô tả như sau.

Trước hết, thành phần RNN encoder sinh ra vectorcvới độ dài cố định từ một chuỗi các vector đầu vào:c=RNNenc[x1:n]. Sau đó, thành phần RNN decoder sẽ sinh lần lượt từng từ cho chuỗi đầu ra theo mô hình sinh có điều kiện [conditional generation].

p[tj+1=k|t̂1:j,c]=f[0[sj+1]]

sj+1=R[sj,[t̂j;c]]

t̂j~p[tj|t̂1:j1,c]

Ở đây,tjlà bước thời gian thứjtrong chuỗi output.t̂jlà giá trị dự đoán tại bước thứjvàsjlà các trạng thái ẩn.

Mô hình seq2seq cơ bản có nhược điểm là yêu cầu RNN decoder sử dụng toàn bộ thông tin mã hóa từ chuỗi đầu vào cho dù chuỗi đó dài hay ngắn. Thứ hai, RNN encoder cần phải mã hóa chuỗi đầu vào thành một vec-tơ duy nhất và có độ dài cố định. Ràng buộc này không thực sự hiệu quả vì trong thực tế, việc sinh ra từ tại một bước thời gian trong chuỗi đầu ra có khi phụ thuộc nhiều hơn vào một số những thành phần nhất định trong chuỗi đầu vào. Ví dụ, khi dịch một câu từ tiếng nước này sang tiếng nước khác, chúng ta thường quan tâm nhiều hơn đến ngữ cảnh xung quanh từ hiện tại so với các từ khác trong câu. Kỹ thuậtattentionđược đưa ra để giải quyết vấn đề đó.

Kỹ thuậtattentionđược đưa ra lần đầu vào năm 2014 bới Bahdanau và cộng sự [6] trong công trình nghiên cứu về dịch máy. Ở mức trừu tượng, kỹ thuậtattentionnới lỏng điều kiện rằng toàn bộ chuỗi đầu vào được mã hóa bằng một vector duy nhất. Thay vào đó các từ trong chuỗi đầu vào sẽ được RNN encoder mã hóa thành một dãy các vector. Sau đó RNN decoder áp dụng kỹ thuậtattentionmềm dẻo [soft attention] bằng cách lấy tổng có trọng số của dãy các vector mã hóa. Các trọng số trong mô hình này được tính bằng một mạng neural truyền thẳng. RNN encoder, RNN decoder và các tham số trong kỹ thuậtattentionđược huấn luyện đồng thời từ dữ liệu. Hình vẽ 4, lấy từ bài báo gốc của tác giả Bahdanau và cộng sự minh họa cho ý tưởngsoft attentiontrong dịch máy.

Hình 4. Minh họa mô hình seq2seq dùng attention trong bài toán dịch máy

Ngoài phương phápsoft attention, kỹ thuật attention còn có một số các kiểu attention khác khác nhưadditive attention,multiplicative attention,self-attention,key-value attention[người viết để nguyên các thuật ngữ tiếng Anh vì chưa tìm ra tên tiếng Việt tương ứng.] Chi tiết về các phương pháp này, bạn đọc có thể đọc thêm tài liệu [7].

Kỹ thuậtAttentionđược sử dụng nhiều nhất trong các nghiên cứu về dịch máy tự động bằng mô hình mạng neural. Như người viết đã đề cập trong phần mở đầu, hệ thống dịch máy Google Translate hiện tại sử dụng kỹ thuật này trong mô hình dịch máy của họ. Ngoài ra, kỹ thuậtattentioncũng được áp dụng trong mô hình sinh hội thoại, trả lời câu hỏi, tóm tắt văn bản,

Các nghiên cứu áp dụng kỹ thuậtattentiontại hội nghị ACL 2017

Exploiting Argument Information to Improve Event Detection via Supervised Attention Mechanisms. [Liu và cộng sự]

Mục đích của bài toán phát hiện sự kiện là xác định những từ hoặc cụm từ mang sự kiện trong câu và phân lớp sự kiện đó vào một trong những lớp được định nghĩa sẵn. Ví dụ, trong câu ví dụ dưới đây, từ mang sự kiện làfirevà sự kiện được xác định làEnd-Position.

Ví dụ 1: MohamadfiredAnwar, hisformer protégé, in 1998

Bài toán phát hiện sự kiện có thể được mô hình hóa thành bài toán phân lớp, trong đó mỗi từ trong câu sẽ được biểu diễn bằng một vec-tơ đặc trưng dựa trên các từ xung quanh từ đó. Các nghiên cứu trước về phát hiện sự kiện không tận dụng hiệu quả thông tin về đối [argument] của sự kiện. Bài báo đưa ra một cách khai thác các thông tinargumenttrong dữ liệu training để tăng độ chính xác của bài toán xác định sự kiện. Trong ví dụ 1, cụm từformer protégéđóng vai trò chỉ vị trí làm việc [position] và thông tin đó sẽ giúp phân lớp từfiredvào lớp sự kiệnEnd-Positionchính xác hơn [thay vì phân lớp vào sự kiệnAttack]. Tác giả đề xuất kỹ thuậtattentiontrong đó dữ liệu huấn luyện cho attention được sinh ra dựa vào tập dữ liệu huấn luyện của đối số. Quá trình huấn luyện bộ phân lớp sự kiện và mô hình attention được thực hiện đồng thời.

Domain Attention with an Ensemble of Experts[Young-Bum Kim và cộng sự.]

Vấn đề quan trọng trong bài toán thích nghi miền [domain adaptation] trong một bài toán NLP là làm sao để tận dụng những miền ứng dụng có nhiều dữ liệu huấn luyện để tăng độ chính xác của hệ thống NLP trên miền ứng dụng có ít dữ liệu. Những mô hình đã huấn luyện từ dữ liệu huấn luyện của những miền ứng dụng đã có được coi là các chuyên gia [expert]. Bài báo đưa ra phương pháp tận dụng phản hồi từKchuyên gia trongKmiền ứng dụng để tăng độ chính xác cho hệ thống NLP của domain thứK+1với dữ liệu huấn luyện nhỏ. Tác giả đánh giá phương pháp đưa ra trong hai bài toán cơ bản trong thành phần hiểu ngôn ngữ nói [Spoken Language Understanding] là: xác định ý định người dùng [intent classification] và trích xuất thông tin [Slot Filling].

Về cơ bản, một mô hình đơn lẻ trong một miền ứng dụng bao gồm tầngembedding[dựa trên kí tự và từ] và tầng LSTM hai chiều [BiLSTM] để sinh ra biểu diễn đặc trưng cho một câu hội thoại gồm kí tự. Biểu diễn đặc trưng đó sẽ được sử dụng để xác định ý định người dùng và trích xuất thông tin. Hình vẽ 4 [lấy ra từ bài báo] minh họa cho mô hình trong một miền ứng dụng.

Hình 5. Minh họa một mô hình đơn lẻ cho bài toán phân loại ý định người dùng và slot filling

Phương pháp thích nghi miền được trình bày trong bài báo sử dụng kỹ thuậtattentionđể kết hợp biểu diễn đặc trưng được sinh ra bởiKchuyên gia trongKmiền ứng dụng đã có và chuyên gia trong miền ứng dụng thứK+1để tạo thành biểu diễn đặc trưng của một câu trong miền ứng dụngK+1.Điểm đặc sắc trong bài báo là tác giả đã giới thiệu kỹ thuậtattentioncó chọn lọc [selective attention] trong đó thay vì tính toán vectorattentioncủa toàn bộKchuyên gia, tác giả chỉ sử dụngK < Kchuyên gia cho kết quả dự đoán với độ tin cậy cao nhất.

A Nested Attention Neural Hybrid Model for Grammatical Error Correction [Jianshu Ji và cộng sự]

Một trong những bước tiến trong bài toán sửa lỗi ngữ pháp là việc áp dụng mô hình dịch máy cho đơn ngôn ngữ, trong đó chúng ta sẽ dịch một câu sai ngữ pháp thành câu đúng ngữ pháp. Gần đây, mô hình seq2seq đang là mô hình áp đảo trong dịch máy nên việc áp dụng mô hình seq2seq trong bài toán sửa lỗi ngữ pháp là một cách tiếp cận khá tự nhiên. Tác giả Jianshu Ji và cộng sự đã áp dụng mô hình seq2seq với kỹ thuậtattentioncho bài toán sửa lỗi ngữ pháp. Hình vẽ 6 lấy ra từ bài báo gốc của tác giả minh họa kiến trúc của mô hình sửa lỗi ngữ pháp.

Hình 6. Minh họa mô hình seq2seq với attention lồng nhau cho bài toán sửa lỗi ngữ pháp

Một vấn đề trong dịch máy đó là làm sao để dịch những từ không nằm trong từ điển [thuật ngữ tiếng Anh là out-of-vocabulary words hay OOV words]. Các từ này thường được thay bằng kí tự UNK. Một số nghiên cứu trong dịch máy kết hợp mô hình seq2seq dựa trên kĩ thuật nhúng ở mức từ [word embedding] và seq2seq dựa trên kĩ thuật nhúng ở mức kí tự [character embedding] để cải tiến việc dịch những từ OOV. Nhưng khác với dịch máy, trong bài toán sửa lỗi ngữ pháp một số từ OOV có thể được giữ nguyên hoặc chỉ bị sai một vài kí tự. Tác giả bài báo đã xử lý vấn đề này bằng hai giải pháp:

  • Đưa ra phương pháp mã hóa lai giữa vector nhúng ở mức từ [word embedding] và mức kí tự [character embedding]
  • Kỹ thuậtattentionlồng nhau ở bước giải mã [decoder]. Trong kỹ thuật này, đầu ra của các từ OOV ở bước mã hóa sẽ được tính dựa trên tích của xác suất của từ UNK theo mô hình ở mức từ và xác suất của chuỗi kí tự theo mô hình ở mức kí tự.

Learning attention for historical text normalization by learning to pronounce[Bollmann và cộng sự.]

Một vấn đề quan trọng khi xử lý các văn bản lịch sử là chuẩn hóa những từ ngữ trong các văn bản lịch sử về cách viết hiện đại. Tác giả áp dụng mô hình seq2seq cơ bản với LSTM encoder và LSTM decoder. Điểm mới trong bài báo là tác giả đã áp dụng kiến trúc học đa nhiệm [multi-task learning] trong mô hình seq2seq. Trong đó, bài toán chuẩn hóa văn bản lịch sử là bài toán chính, và bài toán bổ trợ [auxiliary task] là bài toán học mô hình phát âm từ chữ viết sang cách đọc [grapheme-to-phoneme]. Việc học đa nhiệm trong mô hình seq2seq được thực hiện bằng cách thêm một bộ phân lớp trong tầng đầu ra của mạng. Tác giả so sánh kiến trúc học đa nhiệm với mô hình seq2seq dùngattention. Kết quả cho thấy kiến trúc học đa nhiệm cũng có thể học được cách tập trung [attend] một cách hiệu quả tương tự như kỹ thuậtattentionvà việc kết học giữa học đa nhiệm vớiattentionkhông tăng độ chính xác của hệ thống.

Lời kết

Kỹ thuậtattentiontrong mô hình seq2seq đã và đang được áp dụng rộng rãi trong ngành NLP và cho kết quả tốt trong nhiều bài toán, đặc biệt là trong dịch máy. Tuy nhiên, kỹ thuật này không phải là một phương pháp vạn năng để có thể áp dụng một cách máy móc. Bài báo của Bollmann và cộng sự là một trường hợp mà việc áp dụng attention trong mô hình học đa nhiệm [multi-task learning] không có hiệu quả. Chính vì vậy, để áp dụngattentiontốt, chúng ta cần hiểu rõ bản chất bài toán và áp dụng kỹ thuậtattentionthích hợp.

Tài liệu tham khảo

  • Yoav Goldberg. Neural Network Methods for Natural Language Processing. Synthesis Lectures on Human Language Technologies, 2017.
  • //en.wikipedia.org/wiki/Hopfield_network
  • Werbos, P.J. [1990]. Backpropagation Through Time: What It Does and How to Do It.
  • Hochreiter, S., & Schmidhuber, J. [1997]. Long Short-Term Memory. Neural computation, 9 8, 1735-80.
  • Bahdanau, D., Bougares, F., Bengio, Y., Cho, K., Gülçehre, Ç., Merrienboer, B.V., & Schwenk, H. [2014]. Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation. EMNLP.
  • Bahdanau, D., Bengio, Y., & Cho, K. [2014]. Neural Machine Translation by Jointly Learning to Align and Translate. CoRR, abs/1409.0473.//arxiv.org/abs/1409.0473.
  • Sebastian Ruder. Deep Learning for NLP Best Practices.//ruder.io/deep-learning-nlp-best-practices/index.html.

Phạm Quang Nhật Minh Ban công nghệ tập đoàn FPT [FTI]

Chủ Đề