每一年Google發表的新技術,總會圍繞著更強大的AI演算跟更先進的學習模型,今年也不例外,而且挑戰的是難度比較高的,將自然語言理解帶入搜尋。
現在的Google搜尋,多半是解讀長短關鍵詞來撈出結果,仍無法應付更複雜的問題,或通常要經過好幾輪搜尋,才能找到理想的結果,如在發表會上舉的例子是:「之前爬過亞當山,接下來秋天想挑戰爬富士山,我該怎麼做準備?」
這問題你可能想知道的是:爬富士山和亞當山的準備是否不同?爬富士山該做怎樣的準備?富士山秋天的氣候...等,且Google也要知道這麼些知識,才能給出好的回答,這樣多層、而且口語的問題,一定會難倒現在的Google搜尋,這也是Google希望可以更好的自然語言處理能力,來改善的地方,於是今天Google就提出MUM(Multitask Unified Model)做為新一代的解決方案。
Google搜尋更像知識王?
Google在2018年提出「BERT」這個自然語言模型,這個訓練模型很好的幫助機器理解上下文關係,以及一些基礎知識用以輔助回答。而「MUM」使用與BERT同樣的架構建立,用來理解複雜語句,以及多任務的模型。Google提到MUM的處理力是BERT的1000倍(神經網路節點更多),它具有四種能力:
1.) 可以更全面學習全球知識
2.) 可以產生語言(可用人類懂的敘事句回答)
3.) 可以同時進行75種語言訓練
4.) 多模式,可解讀文字、圖片,未來也可以學習解讀影片、聲音
因為這四種能力,所以MUM可以理解複雜的問題,並配合學習到的全面性知識,形成有用的回答。
發表會上舉例,前面爬富士山的問題,MUM會知道你在比較兩座山,而且因為具有富士山高度、秋天氣候、登山準備...等知識,所以可以用多種語言,正確給出秋天爬富士山的建議,甚至還可以提供圖片、影片、網頁資料。MUM也可以提供75種語言的搜尋結果。
反過來看,也因為MUM可解讀文字、圖片...等素材,同時擁有知識,所以用戶也可以拿一張靴子的圖片,來問Google這雙鞋子適不適合爬山。
目前透過MUM理解搜尋這件事,正在Google進行內部前期測試,Google也表示對這項技術的潛力感到興奮。
聽起來太神奇了,到底是什麼東西在擬人搜尋啊?
如果進展順利,就可算是打通搜尋的任督二脈了吧?不僅可以搜尋複雜問題,而且就像在跟專家諮詢一樣,還可突破只能用文字語言提問的現況。
提供網站可信度資訊
另一個覺得蠻需要的搜尋更新是「進一步瞭解這項結果」功能(About This Result)。這功能會在我們搜尋時,提供可信度資料參考。
Google搜尋的排名系統會優先顯示高品質的資訊,在這之外,「進一步瞭解這項結果」功能會在用戶造訪該網站前,提供該網站的相關資料,如網站說明、首次建立索引的時間、連線是否安全等。
不過一開始先針對英文網站,這個月開始,Google會開始針對全球所有英文搜尋結果加上這些資訊,日後再支援更多語言。
Google Lens更新翻譯篩選器
不知道大家有沒有用過Google Lens搜尋,最常做的應該是拍外文菜單、招牌求翻譯吧。目前每月有超過30億筆Google Lens搜尋量,也越來越多學生透過Google Lens來翻譯作業、文書。Google也將更新Lens的翻譯篩選器,讓學生可以取得網路上超過100種語言的教學內容,且不僅可以翻譯,Google Lens在拍攝數學算式後,還可以提供解釋。以AR搜尋喜歡的運動員
目前我們可以得到的搜尋結果有文字、圖片、影片,AR也是新興的結果類型。目前Google已有一些搜尋結果可以AR來呈現,如在手機上以Chrome或Safarii Google搜尋「獵豹」、「貓熊」...等,就會出現3D模式結果,點擊就可以用AR物件虛擬瀏覽這些東西。之後Google AR搜尋會新增運動員功能,用戶可以在AR模式下,在實境裡看到某些運動員的招牌動作,比方西蒙拜爾斯著名的平衡木常規動作。
搜尋應該是大家用量最大的Google服務吧,但要讓機器學習到理解各種語言、各種文法
、各種口語、各種用詞組合...等,真的不是一件容易的事,所以今天看到提出MUM,更進步的自然語言理解,覺得非常期待,尤其又訓練學習那麼多種語言...
#好樣有人躲在螢幕後面