Neural Machine Translation Untuk Meningkatkan Google Translate.

Google mengumumkan Neural Machine Translation untuk meningkatkan Google Translate.

Google telah mengumumkan Neural Machine Translation (NMT) sistem yang dikatakan akan mengurangi kesalahan penerjemahan di layanan Google Translate antara 55 persen dan 85 persen, tim ilmuwan menyebutkan bahwa ini merupakan prestasi "tonggak penting".
Diumumkan pada peringatan 10 tahun Google Translate, Google Tim Brain para peneliti ilmuwan Quoc Le dan Mike Schuster mengatakan, Google telah menggunakan kecerdasan mesin untuk meningkatkan citra dan pengenalan ucapan sistem, sebelumnya telah menemukan itu "menantang" untuk meningkatkan terjemahan mesin sampai sekarang.

"Sepuluh tahun yang lalu, kami mengumumkan peluncuran Google Translate, bersama-sama dengan penggunaan Machine Translation Frase Berbasis algoritma sebagai kunci di balik layanan ini," kata mereka.

"Hari ini, kami mengumumkan Google Neural sistem Machine Translation (GNMT), yang memanfaatkan "state of the art" teknik pelatihan untuk mencapai perbaikan terbesar sampai saat ini untuk kualitas mesin terjemahan."

Tidak seperti saat ini digunakan berdasarkan phrase based machine translation (PBMT) sistem yang diterjemahkan kata dan frase independen dalam kalimat, terkenal karena kesalahan penerjemahan yang terjemahan mesin menganggap seluruh kalimat sebagai satu unit untuk diterjemahkan.

Para peneliti telah bekerja untuk meningkatkan neural machine translation selama beberapa tahun terakhir, dengan para ilmuwan Google menemukan cara untuk membuatnya bekerja pada set data yang besar, tetap menjaga kecepatan dan akurasi.

Neural Machine Sistem Terjemahan Google : Menjembatani Gap antara Manusia dan Mesin Terjemahan [PDF], oleh Quoc Le, Mike Schuster, Yonghui Wu, Zhifeng Chen, dan Mohammad Norouzi et al, mengatakan sistem adalah "state of the art" untuk terjemahan khususnya Inggris to Perancis dan Inggris ke Jerman, mengurangi kesalahan sebesar 60 persen rata-rata.

"Model kami terdiri dari LSTM (long short term memory) jaringan mendalam dengan delapan encoder dan delapan decoder lapisan menggunakan koneksi residual serta koneksi perhatian dari jaringan decoder ke encoder. Untuk meningkatkan paralelisme dan karena itu mengurangi waktu pelatihan, perhatian mekanisme kita menghubungkan lapisan bawah dari decoder ke lapisan atas encoder, "kata laporan teknis.

"Untuk mempercepat kecepatan penerjemahan akhir, kami mempekerjakan presisi rendah aritmatika selama perhitungan inferensi. Untuk meningkatkan penanganan kata langka, kami membagi kata-kata ke dalam satu set terbatas unit sub kata umum ( 'wordpieces') untuk kedua input dan output. Ini metode memberikan keseimbangan yang baik antara fleksibilitas 'model character' delimited dan efisiensi' model word' dipisahkan, secara alami menangani terjemahan kata langka, dan akhirnya meningkatkan akurasi keseluruhan sistem. "

Google menggunakan contoh kalimat Cina yang diterjemahkan ke dalam bahasa Inggris :
Google mengumumkan Neural Machine Translation untuk meningkatkan Google Translate.
image : Google

"Pertama, jaringan mengkodekan kata Cina sebagai daftar vektor, di mana masing-masing vektor mewakili arti semua kata ( 'Encoder'). Setelah seluruh kalimat dibaca, decoder dimulai, menghasilkan English kalimat satu kata pada waktu ( 'decoder'). untuk menghasilkan kata yang diterjemahkan di setiap langkah, decoder memperhatikan distribusi tertimbang atas vektor Cina yang dikodekan paling relevan untuk menghasilkan kata bahasa Inggris, "kata Google.

"Menggunakan perbandingan side by side manusia dinilai sebagai metrik, sistem GNMT menghasilkan terjemahan yang jauh lebih baik dibandingkan dengan sistem produksi berdasarkan frase sebelumnya."

Google telah meluncurkan GNMT di produksi di Google Translate di web dan mobile untuk Cina to English pasangan terjemahan, akuntansi untuk sekitar 18 juta terjemahan sehari-hari. Ini akan menggelar GNMT dengan bahasa lainnya dalam beberapa bulan mendatang.
Google mengumumkan Neural Machine Translation untuk meningkatkan Google Translate.
image : Google

"Temuan utama kami adalah : Itu pemodelan wordpiece efektif menangani kosakata terbuka dan tantangan bahasa morfologi kaya untuk kualitas terjemahan dan kecepatan kesimpulan, bahwa kombinasi model dan data paralelisme dapat digunakan untuk secara efisien melatih state-of-the-art sequence- to-urutan model NMT di sekitar seminggu; bahwa model kuantisasi drastis mempercepat terjemahan inferensi, yang memungkinkan penggunaan model ini besar dalam lingkungan produksi dikerahkan, dan bahwa banyak rincian tambahan seperti panjang-normalisasi, hukuman cakupan, dan mirip penting untuk membuat sistem NMT bekerja dengan baik pada data real, "laporan teknis menyimpulkan.

Google menggunakan mesin belajar yang toolkit TensorFlow dan yang Processing Unit Tensor (TPU) chip untuk membawa GNMT ke dalam produksi dengan latency dan kekuatan yang cukup.

Di Google I / O pada bulan Mei, Google mengatakan pembelajaran mesin dan kecerdasan buatan akan taruhan besar ke dalam masa depan bisnis.

"Kami bekerja keras di kasus penggunaan inti pada ponsel," kata CEO Sundar Pichai selama Google I / O keynote.

"Kami mendorong diri kita benar-benar kerja keras, sehingga Google yang tinggal selangkah lebih maju dari pelanggan kami."

Tinggal di depan ponsel, menurut Pichai, berarti memberikan yang lebih baik, pengalaman yang lebih dibantu dengan mengintegrasikan peralatan mesin-belajar melalui komunitas platform awan dan open source melalui TensorFlow.

"Kita bisa melakukan hal yang tidak pernah bisa dilakukan sebelum," kata Pichai.

"Kami percaya kami pada saat mani dalam 10 tahun ke depan dan ingin mengambil langkah berikutnya untuk lebih bantu. Kami ingin berada di sana untuk pengguna kami. Kami ingin membantu Anda menyelesaikan sesuatu di dunia nyata dan memahami konteks Anda .

"Tes sebenarnya adalah apakah manusia dapat mencapai lebih banyak dengan AI membantu mereka. Kami berharap untuk membangun masa depan ini."



Peraturan Komentar :
1. Berkomentarlah dengan sopan.
2. Silahkan membuka Lapak tetapi tidak dengan menyertakan Link Hidup
3. Nickname mengandung link web/blog tidak akan dipublish
4. Komentar yang berbau sara / pornografi tidak akan dipublish
5. Karena kesibukan lain, komentar tidak semua dibalas
6. Mari budayakan komentar dengan berbahasa yang baik.

EmoticonEmoticon