不用關(guān)鍵詞也能精準搜索,新AI搜索引擎火了,網(wǎng)友:剛用5分鐘就設(shè)為默認
時間:2023-03-16 23:56:01 | 來源:電子商務(wù)
時間:2023-03-16 23:56:01 來源:電子商務(wù)
關(guān)注“
FightingCV”公眾號
回復(fù)“
AI”即可獲得超100G人工智能的教程
點擊進入→FightingCV交流群來源 | 量子位總是搜不到想要的資料?試試直接給AI描述你要查的內(nèi)容!
這可不是什么“智能推薦”功能,而是一個新出爐的AI搜索引擎
Metaphor。
與谷歌百度等搜索引擎不同,Metaphor搜東西靠的是
提示(prompt),就像引導(dǎo)AI作畫一樣。
△直接輸入一句話,不用摳關(guān)鍵詞如果提示合適,AI就能準確理解你想要的意思,迅速從無數(shù)鏈接中抽出你想要的網(wǎng)站,按匹配度由上至下列給你,在模糊搜索上甚至
比單純靠關(guān)鍵詞搜索更加精確。
Metaphor在網(wǎng)上公開測試版后大火,有網(wǎng)友用了不到5分鐘,就把它換成Chrome默認搜索引擎了:
所以它究竟是個怎樣的搜索引擎,實際使用效果又如何?
如何使用這個搜索引擎網(wǎng)站?
據(jù)作者介紹,Metaphor的原理是基于自監(jiān)督學(xué)習(xí)模型,通過輸入的文本來預(yù)測網(wǎng)址。
原理上,有點像是GPT-3基于輸入文本預(yù)測下一個單詞,以及Stable Diffusion基于文本生成圖像等操作。
使用Metaphor主要有三種方法。
第一種方法,就是直接列提示,讓Metaphor來解讀它。
這里有幾種列提示(prompt)的方法,全都是基于
自動補全的原理,如句子末加冒號(:)、只說半句話、以及給對話等,總之目的是讓AI理解你要找的內(nèi)容。
例如要是想找DALL-E的教程,可以直接說“這里有個很棒的DALL-E教程:”,加個冒號后Metaphor就知道你要找的是什么網(wǎng)站了:
除此之外,也可以“把話說一半”,例如“我認為最適合學(xué)Python的方法是……”
這樣Metaphor就會自動給你搜出各種相似的網(wǎng)站了。
當然,畢竟是prompt,所以即使是用對話的方式來搜索也可以:
愛因斯坦:你好!
我:嗨,愛因斯坦!天啊,時隔這么久還能和你這樣聊天真是太棒了!
愛因斯坦:我也很高興。
我:愛因斯坦,我想知道你最喜歡的書是什么。
愛因斯坦:??!好問題。目前來看我最喜歡的書是……
第二種方法,就是直接給A搜B了。
也就是給出具體網(wǎng)站名稱,告訴Metaphor想找相似的博客,像這樣:
△我最愛的兩個博客是SlateStarCodex和……Metaphor就會給出它認為與SlateStarCodex最相似的網(wǎng)站:
如果搜博客名稱效果不好(例如有重名博客),還有一種更直接的方式。
第三種方法,就是給Metaphor一個網(wǎng)站,讓它去找相似的,這里我們用麥當勞官網(wǎng)試試:
嗯,不僅給出了麥當勞的其他網(wǎng)站,還給出了漢堡王官網(wǎng)(手動狗頭)。
不過,或許是準備收費或出于一些特殊原因,作者并沒有公開背后的詳細模型架構(gòu),也沒有說模型多久會更新一次。
那么相比其他搜索引擎,用prompt搜索是否會有什么優(yōu)勢?
搜人更好用,但中文不行
我們簡單試用了一下,發(fā)現(xiàn)它在“找人”以及一些模糊搜索上效果特別好。
例如找航天領(lǐng)域、或是AI領(lǐng)域的一些專家:
模型很快就會給出特別明確的、而且在當前領(lǐng)域有一定影響力的人物主頁,例如SpaceX、或是OpenAI等公司的主管:
不過,模型自身也還有一些
局限性,例如英文輸入表現(xiàn)雖然不錯,但目前中文搜索準確率不太行,往往與想要的答案相距甚遠。
像“馬斯克喜歡吃什么”,英文搜索的結(jié)果就非常貼切,甚至有“模仿他一周的飲食”這樣的帖子:
換成中文后,馬斯克頓時就變成了中國人(doge),喜歡吃的東西從熱狗、橙子、意面變成了硬菜、咕嚕肉和飯……
此外,輸入
足球明星并以“貝克漢姆”為例,輸出的卻是
羽毛球運動員,再往下甚至還能看見
網(wǎng)球運動員的介紹,但就是沒有足球的……
不過無論如何,這對于搜索引擎而言都是一個新思路,想做中文搜索引擎的也可以考慮一下了~
你還有見過類似好玩的AI搜索引擎嗎?
參考鏈接:
[1]
https://metaphor.systems/blog[2]
https://twitter.com/metaphorsystems/status/1590766127034298370—
完—
往期回顧
基礎(chǔ)知識【CV知識點匯總與解析】|損失函數(shù)篇【CV知識點匯總與解析】|激活函數(shù)篇【CV知識點匯總與解析】| optimizer和學(xué)習(xí)率篇【CV知識點匯總與解析】| 正則化篇【CV知識點匯總與解析】| 參數(shù)初始化篇【CV知識點匯總與解析】| 卷積和池化篇 (超多圖警告)
最新論文解析WACV2022 | 一張圖片只值五句話嗎?UAB提出圖像-文本匹配語義的新視角!
CVPR2022 | Attention機制是為了找最相關(guān)的item?中科大團隊反其道而行之!
ECCV2022 Oral | SeqTR:一個簡單而通用的 Visual Grounding網(wǎng)絡(luò)
如何訓(xùn)練用于圖像檢索的Vision Transformer?Facebook研究員解決了這個問題!
ICLR22 Workshop | 用兩個模型解決一個任務(wù),意大利學(xué)者提出維基百科上的高效檢索模型See Finer, See More!騰訊&上交提出IVT,越看越精細,進行精細全面的跨模態(tài)對比!
MM2022|兼具低級和高級表征,百度提出利用顯式高級語義增強視頻文本檢索
MM2022 | 用StyleGAN進行數(shù)據(jù)增強,真的太好用了MM2022 | 在特征空間中的多模態(tài)數(shù)據(jù)增強方法ECCV2022|港中文MM Lab證明Frozen的CLIP 模型是高效視頻學(xué)習(xí)者ECCV2022|只能11%的參數(shù)就能優(yōu)于Swin,微軟提出快速預(yù)訓(xùn)練蒸餾方法TinyViTCVPR2022|比VinVL快一萬倍!人大提出交互協(xié)同的雙流視覺語言預(yù)訓(xùn)練模型COTS,又快又好!CVPR2022 Oral|通過多尺度token聚合分流自注意力,代碼已開源CVPR Oral | 谷歌&斯坦福(李飛飛組)提出TIRG,用組合的文本和圖像來進行圖像檢索