|
當前位置:首頁 > - 文章中心 > - 企業推廣 |
移動十年:三大搜索方式潛力未兌現 |
發布時間:2021/2/19 17:42:16 來源:極點商業 瀏覽次數:2308 |
移動十年:三大搜索方式潛力未兌現
潮起潮落,隨著移動互聯網興起,PC端逐漸向移動端流量轉移,搜索也開始進入移動時代。
移動搜索與傳統搜索有著很大不同,搜索訴求、搜索方式、輸入方式、輸出結果,都因為各種移動設備而變得更自然、更廣泛和更智能——人們不僅可以隨時隨地通過 Siri搜索,還可以在跑步時用可穿戴設備搜索,也可以懶洋洋地躺在沙發上用Alexa搜索。
文字搜索遠遠滿足不了億萬網民需求后,語音搜索、圖片搜索、視覺搜索,是過去移動互聯網10年三大最有代表性的搜索方式。
2011年開始,在智能手機、可穿戴設備、智能語音助手、智能音箱等助推下,語音搜索讓眾多巨頭興奮不已。不過,幾年發展后,盡管大多數語音識別技術識別率已達到了一個較高水準,但識別并不等同于理解,算法速率和準確率需要進一步提升,同時無法排除嘈雜的環境干擾,對使用者的說話語氣、語速、口音等要求頗高。
語音搜索識別率仍不高
從咨詢公司Roast2018年一份研究22個垂直行業的語音搜索情況來看,Google智能助理能回答的問題不足一半,即使是能回答的問題,答案類型也是千差萬別。
語音搜索在某些人士看來,目前還是雞肋的同時,圖片搜索、視覺搜索又開始興起。
圖片搜索和視覺搜索背后的技術邏輯相通,比如都是基于算法和數據,與數據庫中的特征照片進行對比,識別和搜索目標圖片中的語義標簽。因此無論是谷歌、百度、Facebook、微軟、亞馬遜,還是Pinterest(圖片版的推特),他們都早早進入了上述領域并投入了大量的研發資金。
兩者在輸入上卻完全不同。前者是一種以反饋圖像有效信息結果的搜索模式,只需輸入文本、關鍵字或者圖片就可以得出結果,門檻相對較低;后者是用智能手機或其他攝影頭來識別物理世界所有對象信息的模式,再使用發展近30年歷史的圖像識別技術,結合用戶特征和搜索場景得出相關信息。
谷歌在2011年推出圖片搜索,這個功能的意義是,讓互聯網信息共享跨入新時代。不過,基于單幅圖片來進行搜索,相對有局限性。
業界持有更大希望的是視覺搜索。2009年,谷歌為安卓手機開發的Google Goggles可以說是最早的視覺搜索應用。Goggles目的在于搜索識別現實世界中拍攝對象的圖片信息,并且能夠使用物品的條形碼進行產品搜索。
但Goggles技術非常基礎,本質上是一個搜索引擎公司的Pinterest也在2015年就推出了它的視覺搜索功能,并取得了技術上的重大突破,比如如何更有效將圖像識別和視覺搜索功能結合起來,包括能夠在更廣的可視范圍內中逐個建立單個識別對象,并在視覺應用上顯示搜索信息。
2019年2月,Pinterest推出了圖片搜索功能Lens。經過1年探索,Pinterest用戶每月至少進行6億次視覺搜索,且搜索總數在不斷上升。其受歡迎原因在于,它能夠為每一位用戶創建一個獨特的“品味圖譜”,激發用戶購買欲。
谷歌也在2017年通過圖像識別和OCR技術推出了Lens功能,讓機器學會“看圖說話”,并且用它正式取代了Goggles。不過,直到2020年6月,谷歌才宣布可以在所有穩定版本中使用Google Lens。
|
|
|
|