Google發布開源嵌入模型EmbeddingGemma,定位在裝置端離線情境下,提供語義搜尋與檢索增強生成(RAG)所需的文字向量。官方指出,該模型以3.08億(308M)參數在MTEB多語榜單中,為5億(500M)參數以下的開源模型最高排名,支援100多種語言,並透過量化感知訓練降低記憶體占用,可在低於200 MB記憶體環境執行,目標是讓行動裝置、筆電與桌機在無網路下也能完成檢索與問答。
發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *
留言 *
顯示名稱 *
電子郵件地址 *
個人網站網址
在瀏覽器中儲存顯示名稱、電子郵件地址及個人網站網址,以供下次發佈留言時使用。
Please enter your username or email address, you will receive a link to create a new password via email.
Comments