羅馬——2024年11月4日
今天,我們舉辦了一場獨(dú)特的活動,探索語言的力量以及我們在通用翻譯器方面取得的進(jìn)展。我們推出了世界上最好的翻譯人工智能Lara,以及支持翻譯人員、內(nèi)容創(chuàng)作者和公司本地化需求的新工具。
介紹Lara
我們的首席執(zhí)行官M(fèi)arco Trombetti介紹了Lara,這是15年多來機(jī)器翻譯研究的結(jié)晶。2011年,我們率先推出了自適應(yīng)機(jī)器翻譯。自2017年以來,我們一直在使用Transformer模型為我們的神經(jīng)機(jī)器翻譯系統(tǒng)提供動力,該模型是為翻譯而發(fā)明的,后來成為生成式人工智能的基礎(chǔ)。在ChatGPT發(fā)布后,大型語言模型開始流行起來,許多人對它們的流暢性和處理大型上下文的能力感到驚訝,但也對它們?nèi)狈?zhǔn)確性感到沮喪。我們已經(jīng)孜孜不倦地將大型語言模型的強(qiáng)大功能與機(jī)器翻譯的準(zhǔn)確性相結(jié)合。今天,我們很自豪地達(dá)到了這一里程碑,將兩者與世界上最好的翻譯人工智能Lara相結(jié)合。
Lara通過解釋其選擇、利用上下文理解和推理來提供用戶可信賴的專業(yè)級翻譯,從而重新定義了機(jī)器翻譯。它是在全球可用的最大、最精選的真實(shí)世界翻譯數(shù)據(jù)集上進(jìn)行訓(xùn)練的。得益于我們與NVIDIA的長期合作,Lara在NVIDIA AI平臺上使用了120萬個(gè)GPU小時(shí)進(jìn)行訓(xùn)練。
翻譯9個(gè)結(jié)果照片
借助Lara,企業(yè)可以解決以前難以想象的本地化項(xiàng)目。翻譯人員和多語言創(chuàng)作者將在他們的日常工作中享受Lara帶來的便利,從而提高生產(chǎn)力和準(zhǔn)確性。
Lara的錯誤率僅為每千詞2.4個(gè)。2025年,我們的目標(biāo)更高——計(jì)劃利用2000萬個(gè)GPU小時(shí)來進(jìn)一步實(shí)現(xiàn)語言奇異性。