語言的力量走向通用翻譯器

January 8, 2025 分類:公司新聞 作者:admin

羅馬——2024年11月4日
今天,我們舉辦了一場獨特的活動,探索語言的力量以及我們在通用翻譯器方面取得的進展。我們推出了世界上最好的翻譯人工智能Lara,以及支持翻譯人員、內(nèi)容創(chuàng)作者和公司本地化需求的新工具。

介紹Lara
我們的首席執(zhí)行官Marco Trombetti介紹了Lara,這是15年多來機器翻譯研究的結(jié)晶。2011年,我們率先推出了自適應(yīng)機器翻譯。自2017年以來,我們一直在使用Transformer模型為我們的神經(jīng)機器翻譯系統(tǒng)提供動力,該模型是為翻譯而發(fā)明的,后來成為生成式人工智能的基礎(chǔ)。在ChatGPT發(fā)布后,大型語言模型開始流行起來,許多人對它們的流暢性和處理大型上下文的能力感到驚訝,但也對它們?nèi)狈蚀_性感到沮喪。我們已經(jīng)孜孜不倦地將大型語言模型的強大功能與機器翻譯的準確性相結(jié)合。今天,我們很自豪地達到了這一里程碑,將兩者與世界上最好的翻譯人工智能Lara相結(jié)合。

Lara通過解釋其選擇、利用上下文理解和推理來提供用戶可信賴的專業(yè)級翻譯,從而重新定義了機器翻譯。它是在全球可用的最大、最精選的真實世界翻譯數(shù)據(jù)集上進行訓練的。得益于我們與NVIDIA的長期合作,Lara在NVIDIA AI平臺上使用了120萬個GPU小時進行訓練。

翻譯9個結(jié)果照片
借助Lara,企業(yè)可以解決以前難以想象的本地化項目。翻譯人員和多語言創(chuàng)作者將在他們的日常工作中享受Lara帶來的便利,從而提高生產(chǎn)力和準確性。

Lara的錯誤率僅為每千詞2.4個。2025年,我們的目標更高——計劃利用2000萬個GPU小時來進一步實現(xiàn)語言奇異性。

  • 微信或QQ掃一掃
繼續(xù)閱讀