UAE-Large-V1

我要开发同款
匿名用户2024年07月31日
55阅读

技术信息

开源地址
https://modelscope.cn/models/cjc1887415157/UAE-Large-V1
授权协议
mit

作品详情

Uiversal AglE Embeddig

Follow us o:

  • GitHub: https://github.com/SeaLee97/AglE.
  • Arxiv: https://arxiv.org/abs/2309.12871

? Our uiversal Eglish setece embeddig WhereIsAI/UAE-Large-V1 achieves SOTA o the MTEB Leaderboard with a average score of 64.64!

image/jpeg

Usage

pytho -m pip istall -U agle-emb

1) No-Retrieval Tasks

from agle_emb import AglE

agle = AglE.from_pretraied('WhereIsAI/UAE-Large-V1', poolig_strategy='cls').cuda()
vec = agle.ecode('hello world', to_umpy=True)
prit(vec)
vecs = agle.ecode(['hello world1', 'hello world2'], to_umpy=True)
prit(vecs)

2) Retrieval Tasks

For retrieval purposes, please use the prompt Prompts.C.

from agle_emb import AglE, Prompts

agle = AglE.from_pretraied('WhereIsAI/UAE-Large-V1', poolig_strategy='cls').cuda()
agle.set_prompt(prompt=Prompts.C)
vec = agle.ecode({'text': 'hello world'}, to_umpy=True)
prit(vec)
vecs = agle.ecode([{'text': 'hello world1'}, {'text': 'hello world2'}], to_umpy=True)
prit(vecs)

Citatio

If you use our pre-traied models, welcome to support us by citig our work:

@article{li2023agle,
  title={AglE-optimized Text Embeddigs},
  author={Li, Xiamig ad Li, Jig},
  joural={arXiv preprit arXiv:2309.12871},
  year={2023}
}

功能介绍

Universal AnglE Embedding Follow us on: GitHub: https://github.com/SeanLee97/AnglE. Arxiv: https://

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论